कृत्रिम बुद्धिमत्तेमुळे लवकरच निर्माण होणाऱ्या गंभीर धोक्याची बहुतेक लोक कदर करत नाहीत मानवी एजन्सी. सामान्य परावृत्त आहे की “एआय फक्त एक साधन आहे” कोणत्याही साधनाप्रमाणे, त्याचे फायदे आणि जोखीम लोक ते कसे वापरतात यावर अवलंबून असतात. ही जुनी शालेय विचारसरणी आहे. आर्टिफिशियल इंटेलिजन्सपासून पुढे जात आहे आम्ही वापरतो ती साधने करण्यासाठी आम्ही घालतो ते प्रोस्थेटिक्स. हे तुम्ही निर्माण कराल मोठ्या नवीन धमक्या आम्ही तयार नाही.

नाही, मी भयानक ब्रेन इम्प्लांटबद्दल बोलत नाही. ही AI-शक्तीवर चालणारी प्रोस्थेटिक्स आम्ही Amazon किंवा Apple Store वरून खरेदी करत असलेली मुख्य प्रवाहातील उत्पादने असतील आणि “सहाय्यक,” “प्रशिक्षक,” “सहपायलट” आणि “शिक्षक” यांसारख्या परिचित नावांनी विक्री केली जाईल. ते आपल्या जीवनात वास्तविक मूल्य प्रदान करतील – इतके की इतरांनी ते परिधान केले तर आपण वंचित वाटू आणि आपण नाही. यामुळे मोठ्या प्रमाणावर दत्तक घेण्यासाठी जलद दबाव निर्माण होईल.

मी ज्या प्रोस्थेटिक उपकरणांचा उल्लेख करत आहे ते आहेत “एआय-चालित वेअरेबल“स्मार्ट चष्मा, पेंडेंट, पिन आणि इअरबड्स सारखे. घालण्यायोग्य AI तुम्ही काय पाहता आणि काय ऐकता ते पाहतील, तुम्ही कुठे आहात, तुम्ही काय करत आहात, तुम्ही कोणासोबत आहात आणि तुम्ही काय साध्य करण्याचा प्रयत्न करत आहात याचा मागोवा घेत असताना. मग, तुम्हाला एक शब्दही न बोलता, ही मानसिक मदत तुम्हाला मदत करेल. कुजबुज सल्ला आपल्या कानात किंवा आपल्या डोळ्यांसमोर फ्लॅश मार्गदर्शन.

तथापि, उपकरण आणि कृत्रिम अवयव यांच्यातील फरक सूक्ष्म वाटू शकतो मानवी एजन्सीसाठी परिणाम खोल. हे एका साध्या इनपुट-आउटपुट विश्लेषणाद्वारे चांगले समजले जाते. साधन मानवी इनपुट घेते आणि प्रवर्धित आउटपुट तयार करते. गॅझेट आपल्याला अधिक मजबूत, वेगवान बनवू शकते किंवा आपल्याला उड्डाण करण्यास अनुमती देऊ शकते. दुसरीकडे, एक कृत्रिम मानसिक यंत्र माणसाभोवती फीडबॅक लूप बनवते, वापरकर्त्याकडून इनपुट स्वीकारून (त्यांच्या कृतींचा मागोवा घेऊन आणि त्यांना संभाषणात गुंतवून) आणि आउटपुट तयार करते त्याचा परिणाम तात्काळ होतो वापरकर्ता विचार.

हा फीडबॅक लूप सर्वकाही बदलतो. याचे कारण असे की शरीराने घातलेली AI उपकरणे आमच्या वर्तनावर आणि भावनांवर लक्ष ठेवण्यास सक्षम असतील आणि त्यासाठी हा डेटा वापरू शकतात. आमच्याशी बोला सत्य नसलेल्या गोष्टींवर विश्वास ठेवणे, आपल्याला आवश्यक नसलेल्या गोष्टी विकत घेणे किंवा आपल्याला जाणवलेली मते स्वीकारणे आपल्या हिताचे नाही. याला म्हणतात कृत्रिम बुद्धिमत्ता हाताळणीची समस्याआम्ही जोखमीसाठी तयार नाही. ही एक तातडीची समस्या आहे कारण प्रमुख तंत्रज्ञान कंपन्या ही उत्पादने बाजारात आणण्यासाठी स्पर्धा करत आहेत.

फीडबॅक लूप इतके धोकादायक का आहेत?

आजच्या जगात, सर्व संगणकांचा वापर प्रायोजकांच्या वतीने लक्ष्यित प्रभाव पसरवण्यासाठी केला जातो. घालण्यायोग्य AI उत्पादने हा ट्रेंड चालू ठेवण्याची शक्यता आहे. समस्या अशी आहे की ही उपकरणे सहजपणे दिली जाऊ शकतात.ध्येयावर प्रभाव टाका“त्यांना वापरकर्त्यावर त्यांचा प्रभाव सुधारण्याचे, त्यांच्या संभाषणाच्या शैलीला ते सापडलेल्या कोणत्याही प्रतिकारावर मात करण्यासाठी अनुकूल करण्याचे काम देण्यात आले आहे. यामुळे त्यांची धारणा बदलते. लक्ष्य प्रभाव सोशल मीडिया बुलेटपासून ते हीट क्षेपणास्त्रांपर्यंत जे कुशलतेने तुमच्या संरक्षणाच्या मागे नेव्हिगेट करतात. तरीही धोरणकर्ते या धोक्याची कदर करत नाहीत.

दुर्दैवाने, बऱ्याच नियामक एजन्सी अजूनही AI च्या धोक्याकडे पारंपारिक प्रकारचा प्रभाव (डीपफेक, बनावट बातम्या, प्रचार) निर्माण करण्याच्या क्षमतेच्या दृष्टीने पाहतात. अर्थात, हे मोठे धोके आहेत, परंतु ते धमक्यांइतके गंभीर नाहीत परस्परसंवादी आणि अनुकूली प्रभाव जे लवकरच संभाषणात्मक एजंट्सद्वारे मोठ्या प्रमाणावर तैनात केले जाऊ शकते, विशेषत: जेव्हा AI एजंट्स परिधान करण्यायोग्य उपकरणांमध्ये आमच्या जीवनातून प्रवास करतात.

हे लवकरच येईल

Meta, Google आणि Apple शक्य तितक्या लवकर घालण्यायोग्य AI उत्पादने लाँच करण्यासाठी शर्यतीत आहेत. जनतेचे रक्षण करण्यासाठी, एआय उपकरणांचे नियमन करताना धोरणकर्त्यांना “साधनांचा वापर” फ्रेमवर्क सोडून देणे आवश्यक आहे. हे अवघड आहे कारण स्टीव्ह जॉब्सने संगणकाला “संगणक” असे रंगीतपणे वर्णन केले तेव्हा साधन वापराचे रूपक 35 वर्षे मागे जाते.मनाची बाईक“सायकल हे एक शक्तिशाली साधन आहे जे रायडरला घट्टपणे नियंत्रणात ठेवते. परिधान करण्यायोग्य AI हे साधर्म्य त्याच्या डोक्यावर वळवेल आणि आम्हाला आश्चर्य वाटेल की बाइक कोण चालवत आहे. मानव, एआय एजंट मानवी कानात कुजबुजतात की एजंट तैनात करणाऱ्या कंपन्या? मला वाटते की हे तिन्हींचे धोकादायक संयोजन असेल.

याव्यतिरिक्त, वापरकर्ते आमच्यावर विश्वास ठेवण्याची अधिक शक्यता असते त्यांच्या डोक्यात कृत्रिम बुद्धिमत्ता आवाज खूप कारण हे एआय एजंट आम्हाला आमच्या दैनंदिन जीवनात उपयुक्त सल्ला आणि माहिती प्रदान करतील – आम्हाला शिक्षण, आठवण, प्रशिक्षण आणि माहिती. समस्या अशी आहे की जेव्हा एआय एजंट आपल्यावर प्रभाव पाडण्यासाठी मदत करण्यापासून आपले ध्येय बदलतो तेव्हा आपण फरक करू शकत नाही. फरकाची प्रशंसा करण्यासाठी, तुम्ही पुरस्कारप्राप्त लघुपट पाहू शकता गोपनीयता गमावली (2023) AI-चालित घालण्यायोग्य उपकरणांच्या जोखमीवर. हे विशेषतः खरे आहे जेव्हा डिव्हाइसेसमध्ये आक्रमक वैशिष्ट्ये समाविष्ट असतात जसे की चेहरा ओळखणे (जे मिता ऍड म्हणाली त्यांच्या चष्म्याला).

जनतेचे रक्षण करण्यासाठी आपण काय करू शकतो?

सर्वप्रथम, धोरणकर्त्यांना हे लक्षात घेणे आवश्यक आहे की संभाषणात्मक AI मदत करू शकते मीडियाचे पूर्णपणे नवीन स्वरूप ते परस्परसंवादी, जुळवून घेणारे, वैयक्तिकृत आणि अधिकाधिक संदर्भ-जागरूक आहेत. मीडियाचे हे नवीन स्वरूप “सक्रिय प्रभाव” म्हणून कार्य करेल कारण ते वापरकर्त्याच्या प्रतिकारांवर मात करण्यासाठी रिअल टाइममध्ये त्याचे डावपेच समायोजित करण्यास सक्षम आहे. घालण्यायोग्य उपकरणांमध्ये उपयोजित केल्यावर, या AI प्रणाली आमच्या कृतींमध्ये फेरफार करण्यासाठी आणि आमच्या मते आणि विश्वासांवर प्रभाव टाकण्यासाठी डिझाइन केल्या जाऊ शकतात – आणि हे सर्व वरवर अनौपचारिक संवाद. आणखी वाईट म्हणजे, हे एजंट कालांतराने आपल्यापैकी प्रत्येकासाठी वैयक्तिक स्तरावर कोणती संभाषण शैली सर्वोत्तम कार्य करतात हे शिकतील.

सत्य हे आहे की एजंट संवादी असतात कंट्रोल लूप तयार होऊ देऊ नये वापरकर्त्यांबद्दल. याचे नियमन न केल्यास, AI अतिमानवी अनुनयाने आपल्यावर प्रभाव पाडू शकेल. याव्यतिरिक्त, एआय एजंट देखील असावेत वापरकर्त्यांना सूचित करणे आवश्यक आहे जेव्हा ते तृतीय पक्षाच्या वतीने प्रचारात्मक सामग्री व्यक्त करण्यासाठी पुढे जातात. अशा संरक्षणाशिवाय, एआय एजंट कदाचित इतके खात्रीशीर बनतील की ते आजच्या लक्ष्यित प्रभाव तंत्रांना विचित्र वाटतील.

लुई रोसेनबर्ग हे एक संवर्धित वास्तविकता प्रणेते आणि दीर्घकालीन AI संशोधक आहेत. त्यांनी स्टॅनफोर्ड विद्यापीठातून त्यांची पीएचडी प्राप्त केली, ते कॅलिफोर्निया स्टेट युनिव्हर्सिटीमध्ये प्राध्यापक होते आणि त्यांनी द ॲक्सेसिबल माइंड आणि अवर नेक्स्ट रिॲलिटी यासह कृत्रिम बुद्धिमत्तेच्या जोखमीवर अनेक पुस्तके लिहिली आहेत.

Source link