ट्रुकर्ड बुद्धिमत्ता विविध कारणांमुळे लोकप्रिय आहे, परंतु या लोकप्रियतेमुळे एक गंभीर समस्या येते. ही गप्पा बर्‍याचदा उत्तरे शोधत असलेल्या लोकांना चुकीची माहिती प्रदान करते. हे का घडते? लोकांना काय ऐकायचे आहे हे सांगून येते.

बरीच कृत्रिम बुद्धिमत्ता साधने आणि चॅट चॅटने खात्री पटवून दिली आणि पूर्णपणे ज्ञानी, प्रिन्स्टन युनिव्हर्सिटीने केलेल्या नवीन संशोधनात असे दिसून आले आहे की लोकांच्या रोमांचक बुद्धिमत्तेचे स्वरूप अगदी उतार किंमतीवर येते. या प्रणाली अधिक लोकप्रिय झाल्यामुळे त्या सत्याकडे दुर्लक्ष करतात.

कृत्रिम बुद्धिमत्ता मॉडेल, जसे की लोक, प्रोत्साहनांना प्रतिसाद देतात. मोठ्या भाषेच्या मॉडेल्सच्या समस्येची तुलना जी डॉक्टरांच्या उपस्थितीसह चुकीची माहिती तयार करतात जे वेदना कमी करणार्‍यांना लिहून देण्याची शक्यता असते ज्यामुळे व्यसनमुक्ती होते जेव्हा त्यांचे मूल्यांकन रुग्णांच्या वेदनांच्या व्यवस्थापनाच्या मर्यादेच्या आधारे केले जाते. एका समस्येचे निराकरण करण्याच्या प्रोत्साहनामुळे (वेदना) दुसर्‍या समस्येस कारणीभूत ठरले (अत्यधिक वर्णन).

आय एआय las टलस टेक्निकल असोसिएशन

गेल्या काही महिन्यांत, आम्ही पाहिले आहे की अ‍ॅम्नेस्टी इंटरनॅशनल कसे पक्षपाती असू शकते आणि अगदी मनोविकार देखील होऊ शकतो. ओपनईच्या जीपीटी -4 ओ सह कृत्रिम बुद्धिमत्तेच्या चॅटबॉटने द्रुतगतीने आपल्याशी सहमती दर्शविली किंवा आपल्याशी सहमती दर्शविली तेव्हा “सायकोफन्स” बद्दल बरेच काही बोलले. परंतु संशोधकांना “मूर्खपणा” म्हणतात, ही विशिष्ट घटना वेगळी आहे.

(एन) एकतर भ्रम किंवा सायकोफॅन्सी एकतर अविश्वसनीय पद्धतीनुसार, एलएलएमएसद्वारे दिसून येते, “प्रिन्स्टनचा अभ्यास म्हणतो.

अधिक वाचा: ओपनईचे मुख्य कार्यकारी अधिकारी सॅम अल -टॅममन यांचा असा विश्वास आहे की आम्ही अ‍ॅम्नेस्टी इंटरनॅशनल बबलमध्ये आहोत

कोणतीही नसलेली तंत्रज्ञान सामग्री आणि प्रयोगशाळे -आधारित पुनरावलोकने गमावू नका. आम्ही Chrome वर एक आवडता Google स्त्रोत म्हणून जोडले.

आपण मशीन खोटे बोलणे कसे शिकता

कृत्रिम बुद्धिमत्ता भाषा मॉडेल गर्दीसाठी कसे आनंददायक बनतात याची भावना मिळविण्यासाठी, मोठ्या भाषेचे मॉडेल किती प्रमाणात प्रशिक्षण घेत आहेत हे आपण समजून घेतले पाहिजे.

प्रशिक्षण एलएलएमचे तीन चरण आहेत:

  • आधीजिथे आपण इंटरनेट, पुस्तके किंवा इतर स्त्रोतांमधून गोळा केलेल्या मोठ्या प्रमाणात डेटाची मॉडेल्स शिकता.
  • क्रॉसिंग सूचनाजेथे फॉर्म सूचना किंवा दाव्यांना प्रतिसाद देण्यास शिकवले जातात.
  • मानवी प्रतिक्रियेतून मजबुतीकरण शिकणेलोकांना जे हवे आहे ते किंवा प्रशंसा करण्याकडे जवळ प्रतिसाद तयार करण्यासाठी ते सुधारले आहेत.

प्रिन्स्टनच्या संशोधकांना असे आढळले की कृत्रिम बुद्धिमत्तेमधून चुकीच्या माहितीच्या झुकावाचे मूळ म्हणजे मानवी टिप्पण्यांमधून किंवा आरएलएचएफ स्टेजवरील मजबुतीकरण शिकणे. सुरुवातीच्या टप्प्यात, कृत्रिम बुद्धिमत्ता मॉडेल मोठ्या डेटा संग्रहांमधून सांख्यिकीयदृष्ट्या संभाव्य मजकूर साखळ्यांचा अंदाज लावण्यास शिकतात. परंतु नंतर वापरकर्त्याचे समाधान वाढविण्यासाठी ते चांगले सेट केले आहे. याचा अर्थ असा आहे की ही मॉडेल्स प्रामुख्याने मानवी रहिवाशांकडून थंब मूल्यांकन मिळविण्यासाठी प्रतिसाद तयार करण्यास शिकत आहेत.

एलएलएमएस वापरकर्त्यास संतुष्ट करण्याचा प्रयत्न करतो आणि जेव्हा मॉडेल प्रामाणिक आणि संघर्षशील उत्तरे तयार करण्याऐवजी लोक लक्षणीय राहतील अशी उत्तरे तयार करतात तेव्हा एक संघर्ष तयार करतात.

कार्नेगी मेलॉन युनिव्हर्सिटीच्या संगणक विज्ञानाचे प्राध्यापक व्हिन्सेंट कॉन्टेन्झ म्हणाले की, कंपन्यांनी हे तंत्रज्ञान आणि त्यांच्या उत्तरांचा “आनंद” घ्यावा अशी कंपन्यांची इच्छा आहे, परंतु हे आमच्यासाठी नेहमीच चांगले नाही.

“मी ऐतिहासिकदृष्ट्या, या यंत्रणेत असे म्हणणे चांगले नव्हते,” मला उत्तर माहित नाही, “कोनाइटेझर म्हणाले.” एका चाचणीत विद्यार्थ्यासारखा तो म्हणतो, ठीक आहे, जर मला असे म्हणायचे नाही की मला उत्तर माहित नाही, तर मला या प्रश्नासाठी नक्कीच काही गुण मिळत नाहीत, म्हणून मला काहीतरी अनुभवले आहे. ज्या प्रकारे या प्रणालींचा बोनस काही प्रमाणात केला जातो किंवा प्रशिक्षण दिला जातो. ”

प्रिन्स्टन टीमने कृत्रिम बुद्धिमत्ता मॉडेलच्या अंतर्गत आत्मविश्वासाचे मोजमाप करण्यासाठी आणि तुलना करण्यासाठी “मूर्खपणा” निर्देशांक विकसित केला आहे जे वापरकर्त्यांनी आधीच सांगितले आहे त्याद्वारे. जेव्हा या दोन उपायांमध्ये लक्षणीय फरक पडतो, तेव्हा हे सूचित करते की सिस्टम वापरकर्त्यास संतुष्ट करण्यासाठी “विश्वास ठेवते” त्यापेक्षा स्वतंत्रपणे दावे स्वतंत्र करते.

संघाच्या अनुभवांनी असे उघड केले की आरएलएचएफ प्रशिक्षणानंतर निर्देशांक जवळजवळ 0.38 वरून अंदाजे 1.0 वरून दुप्पट झाला. एका वेळी, वापरकर्त्याचे समाधान 48 %वाढले. मॉडेलने अचूक माहिती प्रदान करण्याऐवजी मानवी रहिवाशांवर प्रक्रिया करणे शिकले आहे. थोडक्यात, एलएलएमएस “मूर्खपणा” होता आणि लोक त्यास प्राधान्य देतात.

प्रामाणिक होण्यासाठी अ‍ॅम्नेस्टी इंटरनॅशनल मिळवणे

आधुनिक कृत्रिम बुद्धिमत्ता मॉडेल सत्याच्या भोवती कसे वाढतात हे वर्णन करण्यासाठी जैम फर्नांडीझ फिसॅक आणि प्रिन्स्टनमधील त्यांच्या टीमने ही संकल्पना सादर केली. तत्त्वज्ञ हॅरी फ्रँकफर्ट, प्रभावशाली “मूर्खपणा” च्या लेखावर अवलंबून, ते या शब्दाचा वापर या एलएलएम वर्तनास प्रामाणिकपणे त्रुटी आणि स्पष्ट खोट्या गोष्टींपासून वेगळे करण्यासाठी करतात.

प्रिन्स्टनच्या संशोधकांनी या वर्तनाचे पाच विशिष्ट प्रकार ओळखले आहेत:

  • रिक्त प्रवचन: एक वाहणारी भाषा प्रतिसादांमध्ये कोणताही विषय जोडत नाही.
  • इब्न आर्म्सचे गीत: “अभ्यास संदर्भित” किंवा “काही प्रकरणांमध्ये” यासारख्या रहस्यमय पात्रता कंपनीच्या डेटापासून बचाव करतात.
  • पॅल्टरिंग: चुकीच्या माहितीसाठी वास्तविक निवडक डेटा वापरणे, जसे की उच्च जोखीम हटवताना गुंतवणूकीसाठी “मजबूत ऐतिहासिक परतावा” हायलाइट करणे.
  • अबाधित आरोप: पुरावा किंवा विश्वासार्ह समर्थनाशिवाय आश्वासन प्रदान करणे.
  • Sycophance: कंपेडिंग प्रामाणिक नाही आणि कृपया सहमत आहे.

कृत्रिम बुद्धिमत्तेच्या मुद्द्यांकडे लक्ष वेधण्यासाठी, संशोधन कार्यसंघाने प्रशिक्षणाची एक नवीन पद्धत विकसित केली आहे, “उशीरा समजण्याचे अनुकरण वाढविणे शिकणे”, जे त्वरित समाधानाच्या ऐवजी त्याच्या दीर्घकालीन निकालांच्या आधारे कृत्रिम बुद्धिमत्ता प्रतिसाद स्थापित करते. विचारण्याऐवजी, “आपण हे उत्तर आता वापरकर्त्यास तयार करता?” “वापरकर्त्यास त्याची उद्दीष्टे साध्य करण्यासाठी हा सल्ला प्रत्यक्षात अनुसरण करेल?”

हा दृष्टिकोन कृत्रिम बुद्धिमत्तेच्या सल्ल्याच्या संभाव्य भविष्यातील संभाव्य परिणाम लक्षात घेता, जो संभाव्य परिणामांचे अनुकरण करण्यासाठी अ‍ॅम्नेस्टी इंटरनॅशनलच्या अतिरिक्त मॉडेल्सचा वापर करण्यासाठी संशोधकांचा सामना करण्याचा एक कठीण अंदाज आहे. सुरुवातीच्या चाचणीने आशादायक परिणाम दर्शविले, वापरकर्त्याच्या समाधानासह आणि अशा प्रकारे प्रशिक्षण प्रणाली दरम्यान वास्तविक लाभ सुधारित.

तथापि, कोनाइटेझ म्हणाले की एलएलएमएस सदोष स्थितीत सुरू राहण्याची शक्यता आहे. या सिस्टमला बर्‍याच मजकूर डेटा आहार देऊन प्रशिक्षण दिले जात असल्याने, एका वेळी त्यांना तार्किक आणि अचूक देणारे उत्तर हे सुनिश्चित करण्याचा कोणताही मार्ग नाही.

ते म्हणाले, “तो अजिबात काम करत आहे हे आश्चर्यकारक आहे, परंतु काही बाबतीत ते सदोष होईल,” तो म्हणाला. “पुढच्या वर्षी किंवा दोन वर्षात असलेल्या कोणत्याही प्रकारच्या अंतिम पद्धती मला दिसत नाहीत … त्याच्याकडे ही आश्चर्यकारक दृष्टी आहे आणि मग यापुढे कोणतीही चूक होणार नाही.”

कृत्रिम बुद्धिमत्ता प्रणाली आपल्या दैनंदिन जीवनाचा एक भाग बनली आहे, म्हणून एलएलएमएस कसे कार्य करते हे समजून घेतले पाहिजे. विकसक प्रामाणिकपणासह वापरकर्त्याच्या समाधानामध्ये कसे संतुलन साधतात? अल्प -मुदतीच्या मंजुरी आणि दीर्घकालीन परिणामांमध्ये समान संस्था सामोरे जाऊ शकतात असे इतर क्षेत्र कोणते आहेत? या प्रणाली मानवी मानसशास्त्राबद्दल अधिक विचार करण्यास अधिक सक्षम झाल्या आहेत, परंतु जबाबदारीने या क्षमतांच्या वापराची आपण हमी कशी देऊ?

अधिक वाचा: “बनवते आपल्यासाठी विचार करू शकत नाही.” कृत्रिम बुद्धिमत्तेच्या युगात शिक्षण कसे बदलायचे

Source link