लेव्ह मॅकमोहन

तंत्रज्ञान वार्ताहर

गेटी प्रतिमा तिच्या स्मार्टफोनवर दर्शविली गेली आहे आणि गोंधळाची घोषणा दर्शविणार्‍या पांढर्‍या पार्श्वभूमीसमोर पाहिली आहे.गेटी चित्रे

बीबीसीने एआयविरूद्ध कायदेशीर कारवाई करण्याची धमकी दिली आहे, जे चॅटबॉट म्हणतात, जे कंपनीने म्हटले आहे की बीबीसी सामग्रीची परवानगी न घेता “शब्दशः” कॉपी करीत आहे.

ब्रिटिश ब्रॉडकास्टिंग कॉर्पोरेशनने (बीबीसी) अमेरिकेतील गोंधळात लिहिले आहे, बीबीसी सामग्री वापरणे थांबविण्याची, कोणतेही तंत्रज्ञान हटविण्याची मागणी त्वरित केली आणि यापूर्वी वापरलेल्या सामग्रीसाठी आर्थिक नुकसान भरपाई सुचवते.

ही पहिलीच वेळ आहे जेव्हा बीबीसीने – जगातील सर्वात मोठ्या वृत्तसंस्थांपैकी एक – कृत्रिम बुद्धिमत्ता कंपनीच्या विरोधात हा उपाय केला आहे.

टिप्पणी करण्यास गोंधळात टाका.

अरविंद श्रीनिवास मुक्त अध्यक्षांना लिहिलेल्या पत्रात बीबीसीला कायदेशीर धोका सादर करण्यात आला.

“यामुळे यूकेमध्ये कॉपीराइटचे उल्लंघन होते आणि बीबीसीच्या अटींचे उल्लंघन केले आहे,” असे पत्रात म्हटले आहे.

या वर्षाच्या सुरूवातीस ब्रिटीश ब्रॉडकास्टिंग कॉर्पोरेशनने प्रकाशित केलेल्या संशोधनाचा उल्लेखही केला, ज्यात काही बीबीसी सामग्रीसह चार प्रसिद्ध चॅटबॉट्स सापडले – ज्यात पेर्लेक्सिटी एआयसह – चुकीच्या पद्धतीने सारांशित केले गेले होते.

विश्लेषित केलेल्या कृत्रिम बुद्धिमत्ता प्रतिसादांमधील बीबीसी सामग्रीच्या प्रतिनिधित्वाशी संबंधित महत्त्वपूर्ण मुद्द्यांच्या निकालांचा संदर्भ देताना ते म्हणाले की हे उत्पादन तटस्थ आणि अचूक बातम्या प्रदान करण्याच्या बीबीसी संपादन सूचनांपेक्षा कमी आहे.

ते पुढे म्हणाले: “म्हणूनच, बीबीसीसाठी हे अत्यंत हानिकारक आहे, ज्यामुळे बीबीसीची जनतेशी प्रतिष्ठा निर्माण होते – बीबीसीद्वारे वित्तपुरवठा करणार्‍या यूके परवाना शुल्कासह – आणि बीबीसीवरील त्यांचा आत्मविश्वास कमी झाला.”

वेब अ‍ॅबस्ट्रॅक्शन नेटवर्क

2022 च्या उत्तरार्धात ओपनई चॅटजीपीटी लाँच केल्यापासून चॅटबॉट्स आणि फोटोच्या जनरेटरची लोकप्रियता जी मजकूर मजकूर किंवा सिंपल ऑडिओ दाव्याच्या काही सेकंदात सामग्री तयार करू शकते.

परंतु त्यांची वेगवान वाढ आणि त्यांच्या क्षमता सुधारित केल्यामुळे परवानगीशिवाय सध्याच्या साहित्याच्या वापराबद्दल प्रश्न निर्माण झाले आहेत.

कृत्रिम बुद्धिमत्ता मॉडेल विकसित करण्यासाठी वापरल्या जाणार्‍या सामग्रीचा एक मोठा भाग रोबोट्स आणि क्रॉल्स वापरुन वेब स्रोतांच्या मोठ्या संचातून मागे घेण्यात आला आहे, जे आपोआप साइट डेटा काढतात.

इंटरनेटवर ड्रेजिंग म्हणून ओळखल्या जाणार्‍या या क्रियाकलापातील वाढीने अलीकडेच ब्रिटिश मीडिया प्रकाशकांना कॉपीराइट सामग्रीवरील संरक्षणास समर्थन देण्यासाठी यूके सरकारच्या निर्मात्यांच्या कॉलमध्ये सामील होण्यास प्रवृत्त केले.

बीबीसीसह अनेक संस्था एआयसाठी एकत्रितपणे डेटा गोळा करण्यापासून रोबोट आणि स्वयंचलित साधने अवरोधित करण्याचा प्रयत्न करण्यासाठी त्यांच्या वेबसाइट कोडमध्ये “रोबोट्स.टीएक्सटी” नावाची फाईल वापरतात.

हे इंटरनेटवर रोबोट्स आणि रेंगाळते जेथे विशिष्ट पृष्ठे आणि सामग्रीपर्यंत पोहोचू नये, जेथे आहे तेथे.

परंतु मार्गदर्शनाचे अनुपालन अद्याप ऐच्छिक आहे आणि काही अहवालानुसार रोबोट्स नेहमीच त्यांचा आदर करत नाहीत.

आपल्या संदेशात, ब्रिटीश ब्रॉडकास्टिंग कॉर्पोरेशनने म्हटले आहे की जरी ती दोन गोंधळलेल्या क्रॉल्स ऐकत नसली तरी कंपनी “रोबोट्स.टी.टी.टी. चा आदर करीत नाही” हे स्पष्ट आहे.

श्री. सेरेनिव्हस यांनी गेल्या जूनमध्ये फास्ट कंपनीला दिलेल्या मुलाखतीत रोबोट्स.टी.टी.टी. च्या सूचनांकडे दुर्लक्ष केल्याचा आरोप श्री. सेरेनिव्हस यांनी नाकारला.

अल -हीराह असेही म्हणतात की ते मूलभूत मॉडेल तयार करत नसल्यामुळे ते प्री -इंटेलिजेंस मॉडेलची वेबसाइट सामग्री वापरत नाही.

“उत्तर इंजिन”

चॅटबॉट ही कंपनीमधील एक कृत्रिम बुद्धिमत्ता बनली आहे आणि सामान्य किंवा जटिल प्रश्नांची उत्तरे शोधत असलेल्या लोकांसाठी एक प्रसिद्ध गंतव्यस्थान बनले आहे, जे स्वतःला “उत्तर इंजिन” म्हणून वर्णन करते.

ती आपल्या वेबसाइटवर म्हणते की तो “वेब शोधून, विश्वसनीय स्त्रोत ओळखून आणि स्पष्ट आणि अद्ययावत प्रतिसादांमध्ये माहितीचे संश्लेषण करून हे करतो.

वापरकर्त्यांनी अचूकता प्रतिसाद तपासण्याची देखील शिफारस केली आहे – कृत्रिम बुद्धिमत्तेच्या चॅटबॉट्ससह एक सामान्य चेतावणी, जी आपल्याला माहित आहे की ते चुकीची माहिती दर्शवितात, एक खात्री पटणारी पद्धत.

जानेवारीत, Apple पलने कृत्रिम बुद्धिमत्ता वैशिष्ट्य थांबविले, जे बीबीसीच्या तक्रारीनंतर आयफोन वापरकर्त्यांसाठी त्यांचे गट सारांशित करताना बीबीसी न्यूज अनुप्रयोगासाठी खोटे पत्ते जन्माला आले.

उजवीकडून फिरत असलेल्या पिक्सेल युनिट्स तयार करणारे ब्लॅक बॉक्स आणि आयताकृती असलेले हिरवे प्रचारात्मक चिन्ह. मजकूर म्हणतो:

Source link