ई -मेल लिहिणे किंवा विचित्र आणि भविष्यातील प्रतिमा तयार करणे यासारख्या चांगल्या गोष्टी करत असताना चॅटबॉट्स खरोखर प्रभावी असतात. परंतु मी आयातकर्ता बुद्ध्यांकांना वृत्तपत्राच्या मागील बाजूस यापैकी एक कोडी सोडवण्यास सांगतो आणि गोष्टी द्रुतपणे सुरू केल्या जाऊ शकतात.
सुडोकूचे निराकरण करण्यासाठी मोठ्या भाषेच्या मॉडेलला आव्हान देताना कोलोरॅडो विद्यापीठातील संशोधकांनी बल्डरमध्ये हेच शोधले. मानक 9×9 कोडी देखील नाही. 6 x 6 कोडे बहुतेक वेळा बाह्य सहाय्य न करता एलएलएम क्षमता ओलांडतात (या प्रकरणात, निर्दिष्ट कोडे साधने).
मॉडेल्सना त्यांचे कार्य दर्शविण्यास सांगितले गेले तेव्हा आणखी एक महत्त्वाचा शोध आला. सर्वात मोठ्या भागासाठी, त्यांना शक्य झाले नाही. कधीकधी ते खोटे बोलतात. कधीकधी त्यांनी गोष्टी निरर्थक मार्गाने स्पष्ट केल्या. कधीकधी ते अभिवादन करीत असत आणि हवामानाबद्दल बोलू लागले.
जुलैच्या जुलैच्या जुलैच्या जुलै महिन्यात जुलैच्या जुलै महिन्यात जुलै महिन्यात जुलै महिन्यात जुलै महिन्यात जुलै महिन्यात जुलै महिन्यात जुलै महिन्यात जुलै महिन्यात जुलै महिन्यात जुलै महिन्यात जुलैमध्ये जनरल एआय साधने त्यांचे निर्णय अचूक किंवा पारदर्शकपणे समजावून सांगू शकत नाहीत, जुलैमध्ये आम्ही या गोष्टींवर अधिक नियंत्रण ठेवले आहे.
ट्रेव्हिडी म्हणाले, “हे स्पष्टीकरण पारदर्शक व्हावे आणि कृत्रिम बुद्धिमत्ता या निर्णयाचे कारण प्रतिबिंबित व्हावे अशी आमची इच्छा आहे,” ट्रेव्हिडी म्हणाले.
कोणतीही नॉन -आयडेड तंत्रज्ञान सामग्री आणि प्रयोगशाळे -आधारित पुनरावलोकने गमावू नका. सीएनईटी जोडा एक आवडता Google स्त्रोत म्हणून.
हा पेपर मोठ्या भाषेच्या मॉडेल्सच्या वर्तनात संशोधनाच्या वाढत्या संग्रहात एक भाग आहे. इतर अलीकडील अभ्यासानुसार असे आढळले आहे की मॉडेल्स अंशतः अपमानित आहेत कारण त्यांची प्रशिक्षण प्रक्रिया वापरकर्त्यास जे अचूक आहे त्याऐवजी, किंवा जे लोक एलएलएमचा वापर करतात त्यांना जे लोक लिहिले ते लक्षात ठेवण्याची शक्यता कमी आहे. जनरल एआय आपल्या दैनंदिन जीवनापेक्षा अधिकाधिक बनत असल्याने, हे तंत्रज्ञान कसे कार्य करते आणि ते वापरताना आपण कसे वागतो याचा परिणाम खूप महत्वाचा होतो.
जेव्हा आपण निर्णय घेता तेव्हा आपण त्याचे औचित्य सिद्ध करण्याचा प्रयत्न करू शकता किंवा आपण त्यात कसे पोहोचले हे कमीतकमी स्पष्ट करू शकता. कृत्रिम बुद्धिमत्ता मॉडेल समान अचूक किंवा पारदर्शक करण्यास सक्षम असू शकत नाही. तुमचा त्याच्यावर विश्वास आहे का?
हे पहा: मी सुरवातीपासून एआय पासून एक संगणक तयार केला
आपण सुडोकूबरोबर एलएलएमएस का संघर्ष करता?
आम्ही कृत्रिम बुद्धिमत्ता मॉडेल पाहिले आहेत जे यापूर्वी मूलभूत खेळ आणि कोडीमध्ये अयशस्वी होतात. १ 1979. In मध्ये अटारी येथे संगणकाच्या सूटद्वारे चॅटजीपीटीला ओपनई (इतरांसह) पूर्णपणे बुद्धिबळ खेळात चिरडले गेले. Apple पलच्या आधुनिक शोध पेपरमध्ये असे आढळले आहे की मॉडेल हनोई टॉवर सारख्या इतर कोडेसह कुस्ती करू शकतात.
हे एलएलएमएस कार्य करते आणि माहितीमधील अंतर भरते यावर येते. हे मॉडेल त्यांच्या प्रशिक्षण डेटामध्ये किंवा पूर्वी पाहिलेल्या इतर गोष्टींमध्ये समान प्रकरणांमध्ये काय घडत आहेत यावर आधारित हे अंतर पूर्ण करण्याचा प्रयत्न करतात. सुडोकू सह, प्रश्न एक तर्कशास्त्र आहे. कृत्रिम बुद्धिमत्ता प्रत्येक अंतर योग्यरित्या भरण्याचा प्रयत्न करू शकते, जे वाजवी उत्तर असल्याचे दिसते त्या आधारावर, परंतु त्यास योग्य प्रकारे सोडविण्यासाठी, त्याऐवजी संपूर्ण प्रतिमेकडे लक्ष देणे आवश्यक आहे आणि रहस्यमयतेपासून रहस्यमयतेमध्ये बदलणारी तार्किक व्यवस्था शोधली पाहिजे.
अधिक वाचा: आमच्या तज्ञांच्या मते 29 आपण जनरल एआय चालवू शकता असे मार्ग
अशाच कारणास्तव चॅटबॉट्स बुद्धिबळात खराब आहेत. त्यांना खालील तार्किक हालचाली सापडतात, परंतु त्यांना तीन, चार किंवा पाच हालचालींचा विचार करणे आवश्यक नाही – बुद्धिबळ चांगले खेळण्यासाठी आवश्यक असलेले मूलभूत कौशल्य. चॅटबॉट्स देखील बुद्धिबळाचे तुकडे अशा प्रकारे हलविण्याकडे कल करतात जे खरोखरच नियमांचे पालन करीत नाहीत किंवा तुकडे निरर्थक धोक्यात घालतात.
आपण एलएलएमएस सुडोकूचे निराकरण करण्यास सक्षम असाल अशी अपेक्षा करू शकता कारण ते संगणक आहेत आणि रहस्य मध्ये संख्या आहेत, परंतु कोडे स्वतःच खेळ नाहीत; हे प्रतीकात्मक आहे. सीयूचे प्राध्यापक आणि रिसर्च पेपरचे लेखक फॅबिओ सुमेंझी म्हणाले, “सुडोकू संख्येसह एक कोडे म्हणून प्रसिद्ध आहे.
मी संशोधकांच्या पेपरमधून निर्देशित केलेला नमुना वापरला आणि तो चॅटजीपीटीला दिला. साधनाने तिचे कार्य दर्शविले आणि तिने मला वारंवार सांगितले की एक रहस्य दर्शविण्यापूर्वी उत्तर यशस्वी झाले नाही, नंतर परत आणि दुरुस्त करा. जणू काही रोबोट एखाद्या सादरीकरणात फिरत आहे जे दुसरे बदल करत राहिले: हे अंतिम उत्तर आहे. नाही, खरं तर काळजी करू नका, हे हे अंतिम उत्तर आहे. अखेरीस तिला अनुभव आणि त्रुटीद्वारे उत्तर मिळाले. परंतु वृत्तपत्रात सुडोकू सोडवण्याचा अनुभव आणि त्रुटी हा व्यावहारिक मार्ग नाही. ही मजा मिटविणे आणि नष्ट करणे हे आहे.
कृत्रिम बुद्धिमत्ता आणि रोबोट्स ऑपरेशनसाठी तयार केले असल्यास ते चांगले असू शकतात, परंतु मोठ्या भाषेच्या मॉडेल्ससारख्या सामान्य उद्देशाने तार्किक कोडेसह लढा देऊ शकतो.
अॅम्नेस्टी इंटरनॅशनल आपले कार्य दर्शविण्यासाठी धडपडत आहे
कोलोरॅडो संशोधकांना फक्त हे जाणून घ्यायचे होते की रोबोट कोडी सोडवू शकतात की नाही. रोबोट त्यांच्याद्वारे कसे कार्य करतात याबद्दल स्पष्टीकरण विनंती केली. गोष्टी व्यवस्थित झाल्या नाहीत.
ओपनईची विचारसरणी मॉडेल चाचणी, संशोधकांचा असा विश्वास होता की योग्यरित्या सोडविलेल्या कोडी सोडविल्या गेलेल्या अर्थ लावणे अगदी अचूकपणे स्पष्ट केले नाही किंवा त्यांच्या हालचाली आणि मूलभूत अटी नाकारल्या गेल्या नाहीत.
सीयू मधील सीयू संगणक सहाय्यक प्राध्यापक मारिया पॅसिको म्हणाल्या, “त्यापैकी एक गोष्ट चांगली आहे की वाजवी स्पष्टीकरण प्रदान करणे.” “ते मानवांच्या अनुरुप आहेत, म्हणून ते आपल्या प्रेमाप्रमाणे बोलण्यास शिकतात, परंतु जर ते प्रामाणिक असतील तर त्या गोष्टी सोडवण्याच्या वास्तविक चरणांनी ज्या जागेचा सामना करावा लागतो त्या जागेवर असावी.”
कधीकधी, स्पष्टीकरण पूर्णपणे संबंधित होते. पेपरचे काम पूर्ण झाल्यापासून, संशोधकांनी प्रसिद्ध केलेल्या नवीन मॉडेल्सची चाचणी सुरू ठेवली आहे. सुमनझी म्हणाले की, जेव्हा त्याच चाचण्यांमधून ओपनईमध्ये तो आणि ट्रेविड हे ओपनई विचारांचे मॉडेल होते, तेव्हा काही वेळा तो पूर्णपणे शरण गेला असे दिसते.
ते म्हणाले, “आम्ही विचारलेला पुढील प्रश्न, उत्तर डेन्व्हरच्या हवामानाचा अंदाज होता,” तो म्हणाला.
.
स्वत: ला स्पष्ट करा एक महत्त्वाचे कौशल्य आहे
जेव्हा आपण कोडे सोडवता तेव्हा आपण आपल्या विचारांनी दुसर्या व्यक्तीला चालत आहात याची खात्री आहे. या मूलभूत कार्यात हे एलएलएम आश्चर्यकारकपणे अयशस्वी झाले ही एक क्षुल्लक समस्या नाही. कृत्रिम बुद्धिमत्ता कंपन्यांसह आपण सतत “कृत्रिम बुद्धिमत्ता एजंट्स” बद्दल बोलता जे आपल्या वतीने कारवाई करू शकतात, स्वत: ला स्पष्ट करण्याची क्षमता आवश्यक आहे.
आता कृत्रिम बुद्धिमत्तेला मंजूर केलेल्या कार्ये किंवा नजीकच्या भविष्यात नियोजित केलेल्या कार्ये विचारात घ्या: ड्रायव्हिंग, कर, कामाची रणनीती निश्चित करणे आणि महत्त्वपूर्ण कागदपत्रांचे भाषांतर करणे. आपण, एखादी व्यक्ती, यापैकी एखादी गोष्ट आणि काहीतरी चुकीचे घडल्यास काय होईल याची कल्पना करा.
“जेव्हा मानवांनी त्यांच्या निर्णयासमोर आपला चेहरा लावावा लागतो, तेव्हा या निर्णयाला कशामुळे कारणीभूत ठरले हे स्पष्ट करणे चांगले आहे,” असे सुमीन्झी म्हणाले.
केवळ वाजवी उत्तर मिळविण्याची ही बाब नाही. ते अचूक असले पाहिजे. एके दिवशी, कृत्रिम बुद्धिमत्तेच्या स्पष्टीकरणास स्वत: साठी कोर्टाचा प्रतिकार करण्यास भाग पाडले जाऊ शकते, परंतु खोटे बोलताना ज्ञात असल्यास त्याची साक्ष कशी गांभीर्याने घेतली जाऊ शकते? आपण स्वत: ला समजावून सांगण्यात अयशस्वी झालेल्या एखाद्यावर विश्वास ठेवणार नाही आणि आपण विश्वास ठेवणार नाही की एखाद्याला सत्य ऐवजी आपल्याला जे ऐकायचे आहे ते सांगण्यात आले.
ट्रेव्हिडी म्हणाले, “हे एखाद्या चुकीच्या कारणास्तव केले गेले तर हेरफेरचे अगदी जवळचे स्पष्टीकरण आहे. “या स्पष्टीकरणांच्या पारदर्शकतेबद्दल आपण खूप सावधगिरी बाळगली पाहिजे.”