एआय मॉडेल्स अधिकाधिक प्रभावी दिसण्याच्या शर्यतीत, तंत्रज्ञान कंपन्यांनी भाषेसाठी नाट्यमय दृष्टिकोन स्वीकारला आहे. ते AI बद्दल बोलत राहतात जणू ती एक व्यक्ती आहे. केवळ एआयच्या “विचार” किंवा “नियोजन” बद्दलच नाही – ते शब्द आधीच लोड केलेले आहेत – परंतु आता ते एआय मॉडेलच्या “आत्मा” आणि मॉडेल्स “ओळखणे”, “इच्छा”, “योजना” किंवा “सेन्स” अनिश्चिततेबद्दल चर्चा करीत आहेत.

हे निरुपद्रवी मार्केटिंग बूम नाही. AI चा मानववंशवाद दिशाभूल करणारा, बेजबाबदारपणाचा आहे आणि शेवटी पारदर्शकतेशी संघर्ष करणाऱ्या तंत्रज्ञानाबद्दल सामान्य लोकांची समज कमी करते, अशा वेळी जेव्हा स्पष्टता सर्वात महत्त्वाची असते.

जनरेटिव्ह AI वर्तनावर प्रकाश टाकण्याचे उद्दिष्ट असलेल्या प्रमुख AI कंपन्यांचे संशोधन अनेकदा प्रकाशापेक्षा अस्पष्ट अशा प्रकारे तयार केले जाते. उदाहरणार्थ, OpenAI ची एक अलीकडील पोस्ट घ्या ज्यामध्ये त्याचे मॉडेल त्यांच्या चुका किंवा शॉर्टकट “कबूल” करण्यासाठी त्याच्या कामाचे तपशीलवार वर्णन आहे. हा एक मौल्यवान प्रयोग आहे जो चॅटबॉट स्वत:चा भ्रम आणि कारस्थान यासारख्या विशिष्ट “गैरवर्तणुकीचा” कसा अहवाल देतो हे शोधतो. परंतु ओपनएआयच्या प्रक्रियेचे वर्णन “ओळख” असे सूचित करते की मोठ्या भाषेच्या मॉडेलच्या आउटपुटमागे एक मानसिक घटक आहे.

हे कदाचित LLM कार्यक्रमासाठी खरी पारदर्शकता प्राप्त करणे किती आव्हानात्मक आहे या ओळखीतून उद्भवते. आम्ही पाहिले आहे, उदाहरणार्थ, एआय मॉडेल त्यांच्या कार्यामध्ये विश्वासार्हपणे सिद्ध करू शकत नाहीत जसे की सुडोकू कोडी सोडवा.

दरम्यान अंतर आहे काय कृत्रिम बुद्धिमत्ता तयार करू शकते आणि कसे हे ते निर्माण करते, म्हणूनच या मानवासारख्या संज्ञा इतक्या धोकादायक आहेत. आम्ही या तंत्रज्ञानाच्या खऱ्या मर्यादा आणि जोखमींवर चर्चा करू शकतो, परंतु एआयचे संवेदनशील प्राणी म्हणून वर्णन करणारी शब्दावली केवळ चिंता कमी करते किंवा जोखमींबद्दलची चमक कमी करते.


आमची कोणतीही निष्पक्ष तांत्रिक सामग्री आणि प्रयोगशाळेची पुनरावलोकने चुकवू नका. CNET जोडा Google चा पसंतीचा स्रोत म्हणून.


कृत्रिम बुद्धिमत्तेला आत्मा नसतो

एआय सिस्टममध्ये आत्मा, हेतू, भावना किंवा नैतिकता नसते. ते “कबुली” देत नाहीत कारण त्यांना प्रामाणिक राहण्याची सक्ती वाटते, ज्याप्रमाणे तुम्ही चुकीची की दाबता तेव्हा कॅल्क्युलेटर “माफी” मागत नाही. या प्रणाली मोठ्या डेटा संचांमधून शिकलेल्या सांख्यिकीय संबंधांवर आधारित मजकूराचे नमुने तयार करतात.

बस्स.

मानवी दिसणारी कोणतीही गोष्ट ही अत्यंत अत्याधुनिक आरशात आपल्या आंतरिक जीवनाचे प्रक्षेपण असते.

एन्थ्रोपोमॉर्फाइजिंग एआय लोकांना या प्रणाली प्रत्यक्षात काय आहेत याबद्दल चुकीची कल्पना देते. याचे परिणाम होतात. जेव्हा आपण अस्तित्वात नसलेल्या अस्तित्वाला चेतना आणि भावनिक बुद्धिमत्ता देण्यास सुरुवात करतो, तेव्हा आपण कृत्रिम बुद्धिमत्तेवर अशा प्रकारे विश्वास ठेवू लागतो ज्यावर आपण कधीही विश्वास ठेवू नये.

आज, अधिक लोक पात्र आणि परवानाधारक डॉक्टरांवर अवलंबून न राहता वैद्यकीय मार्गदर्शनासाठी “डॉक्टर चॅटजीपीटी” कडे वळत आहेत. इतर आर्थिक, भावनिक आरोग्य आणि परस्पर संबंध यासारख्या क्षेत्रांमध्ये AI-व्युत्पन्न प्रतिसादांकडे वळत आहेत. काही परावलंबी होतात चॅटबॉट्ससह बनावट मैत्री आणि LLM जे काही थुंकते ते त्यांचे निर्णय आणि कृती सूचित करण्यासाठी “पुरेसे चांगले” आहे असे गृहीत धरून त्यांना मार्गदर्शनासाठी संदर्भित करणे.

कृत्रिम बुद्धिमत्तेबद्दल आपण कसे बोलावे?

जेव्हा कंपन्या मानववंशीय भाषेवर अवलंबून असतात, तेव्हा ते सिम्युलेशन आणि चेतना यांच्यातील रेषा अस्पष्ट करतात. शब्दजाल अपेक्षा वाढवतो, भीती निर्माण करतो आणि वास्तविक मुद्द्यांपासून लक्ष विचलित करतो जे खरोखर आपले लक्ष देण्यास पात्र आहेत: डेटा सेटमधील पूर्वाग्रह, वाईट कलाकारांकडून गैरवापर, सुरक्षितता, विश्वसनीयता आणि शक्तीचे एकाग्रता. यापैकी कोणत्याही विषयाला गूढ रूपकांची आवश्यकता नाही.

उदाहरणार्थ, अँथ्रोपिकच्या “सोल डॉक्युमेंट” चा अलीकडील लीक घ्या, क्लॉड ओपस 4.5 चे व्यक्तिमत्व, आत्म-जागरूकता आणि ओळख प्रशिक्षित करण्यासाठी वापरले. अंतर्गत दस्तऐवजीकरणाचा हा मजेदार भाग मेटाफिजिकल दावा करण्यासाठी नव्हता – जसे की त्याचे अभियंते डीबगिंगसाठी मार्गदर्शक शोधत आहेत. तथापि, या कंपन्या बंद दारांमागे जी भाषा वापरतात ती अपरिहार्यपणे सामान्य लोक ज्या पद्धतीने चर्चा करतात त्यामध्ये प्रवेश करतात. एकदा का ही भाषा पकडली की, ती तंत्रज्ञानाविषयीच्या आपल्या कल्पनांना, तसेच त्याभोवती आपण कसे वागतो याला आकार देते.

किंवा OpenAI चे संशोधन त्यात घ्या कृत्रिम बुद्धिमत्तेसाठी “नियोजन” संशोधन कराजेथे दुर्मिळ परंतु फसव्या प्रतिसादांच्या संकलनामुळे काही संशोधकांनी असा निष्कर्ष काढला की मॉडेल जाणूनबुजून काही विशिष्ट क्षमता लपवत होते. AI परिणाम तपासणे ही एक चांगली सराव आहे; चॅटबॉट्सचे स्वतःचे हेतू किंवा रणनीती असू शकतात याचा अर्थ असा नाही. खरेतर, OpenAI अहवालात असे म्हटले आहे की ही वर्तणूक प्रशिक्षण डेटा आणि काही प्रेरक प्रवृत्तींचा परिणाम आहे, फसवणुकीची चिन्हे नाहीत. परंतु “योजना” हा शब्द वापरल्यामुळे, संभाषण एआय हा एक प्रकारचा कट रचणारा एजंट असल्याच्या चिंतेकडे वळला.

चांगले, अधिक अचूक, अधिक तांत्रिक शब्द आहेत. “आत्मा” ऐवजी मॉडेलच्या संरचनेबद्दल किंवा प्रशिक्षणाबद्दल बोला. “ओळख” ऐवजी, याला बग रिपोर्टिंग किंवा अंतर्गत सुसंगतता तपासणी म्हणा. ठराविक “योजना” म्हणण्याऐवजी त्यांच्या ऑप्टिमायझेशन प्रक्रियेचे वर्णन करा. ट्रेंड, आउटपुट, प्रतिनिधित्व, ऑप्टिमायझर, मॉडेल अपडेट्स किंवा ट्रेनिंग डायनॅमिक्स यासारख्या संज्ञा वापरून आम्ही AI चा संदर्भ घेतला पाहिजे. हे “सोल” किंवा “कबुलीजबाब” सारखे नाट्यमय नाही, परंतु वास्तविकतेत ग्राउंड असण्याचा फायदा आहे.

खरे सांगायचे तर, या एमबीए वर्तन मानवी वाटण्याची कारणे आहेत, कारण कंपन्यांनी त्यांना आमची नक्कल करण्याचे प्रशिक्षण दिले आहे.

“ऑन द डेंजर्स ऑफ यादृच्छिक पोपट” या 2021 च्या पेपरच्या लेखकांनी नमूद केल्याप्रमाणे, मानवी भाषा आणि संप्रेषणाची प्रतिकृती तयार करण्यासाठी डिझाइन केलेल्या सिस्टीम अखेरीस मिरर होतील — आमची शब्दरचना, वाक्य रचना, टोन आणि टेनर. समानतेचा अर्थ खरा समज नाही. याचा अर्थ असा की मॉडेल जे करण्यासाठी ऑप्टिमाइझ केले होते ते करते. जेव्हा ते चॅटबॉटचे अनुकरण करतात तितक्या खात्रीने चॅटबॉट्स करू शकतात, तेव्हा असे काहीही नसले तरीही आपण मशीनमध्ये मानवतेचे वाचन करतो.

भाषा ही लोकांची धारणा बनवते. जेव्हा शब्द हेतुपुरस्सर घाणेरडे, जादुई किंवा मानववंशीय असतात, तेव्हा प्रेक्षक एक विकृत प्रतिमेसह समाप्त होतात. या विकृतीमुळे फक्त एका गटाला फायदा होतो: AI कंपन्या ज्यांना त्यांच्यापेक्षा अधिक सक्षम, उपयुक्त आणि मानवीय दिसणाऱ्या पदव्युत्तर पदवीधारकांकडून फायदा होतो.

जर एआय कंपन्यांना सार्वजनिक विश्वास निर्माण करायचा असेल तर पहिली पायरी सोपी आहे. अनाकलनीय प्राण्यांसारख्या भाषेच्या मॉडेलना आत्म्यांसोबत वागवणे थांबवा. त्यांना भावना नाहीत – आमच्याकडे त्या आहेत. आपल्या शब्दांनी ते प्रतिबिंबित केले पाहिजे, ते अस्पष्ट नाही.

हे देखील वाचा: कृत्रिम बुद्धिमत्तेच्या युगात, अर्थ कसा दिसतो?

Source link