अमेरिकन असोसिएशन फॉर आर्टिफिशियल इंटेलिजेंसने असा इशारा दिला आहे की याचा वापर करणार्‍या तरुणांनी हानी पोहोचवू नये या भूमिकेचे नुकसान होणार नाही आणि अमेरिकन असोसिएशन फॉर कृत्रिम बुद्धिमत्तेने त्यांच्या साधनांचा वापर सुनिश्चित करण्याचा इशारा दिला आहे.

मानसशास्त्र तज्ञांच्या सल्लामसलत समितीने गोळा केलेल्या या अहवालात तंत्रज्ञान कंपन्यांना सिम्युलेशन संबंधांची मर्यादा सुनिश्चित करण्याचे, वयासाठी योग्य विशेष सेटिंग्ज तयार करण्यासाठी आणि खटल्याच्या आरोग्याच्या वापरास प्रोत्साहित करण्याचे आवाहन केले गेले.

आपल्याकडे अ‍ॅटलास आहे

एपीएने यापूर्वी तंत्रज्ञानाविषयी समान सल्ला जाहीर केला आहे. मागील वर्षी, या गटाने अशी शिफारस केली होती की पालकांनी किशोरांना सोशल मीडिया इफेक्ट आणि जनरल एआय द्वारे तयार केलेल्या व्हिडिओंवर मर्यादित करावे. २०२23 मध्ये त्यांनी तरुणांमध्ये सोशल मीडियाच्या वापराचे नुकसान करण्याचा इशारा दिला.

“सोशल मीडियाप्रमाणेच कृत्रिम बुद्धिमत्ता देखील त्याच्या स्वभावामुळे चांगली किंवा वाईट नाही,” मिच बर्नस्टेनचे मानसशास्त्र प्रमुख यांनी एका निवेदनात म्हटले आहे. “परंतु आम्ही किशोरवयीन मुलांची” आरोग्यासाठी “आणि चॅटबॉट्सशी धोकादायक संबंध देखील पाहिल्या आहेत, उदाहरणार्थ. काही किशोरांना हे माहित नाही की ते कृत्रिम बुद्धिमत्तेशी संवाद साधतात, म्हणूनच आता विकसकांना जागृत करणे महत्वाचे आहे.”

गेल्या काही वर्षांत ओपनई आणि गूगलच्या मिथुन मधील चॅटजीपीटी सारख्या कृत्रिम स्मार्ट साधनांच्या वाढीमुळे नवीन आणि गंभीर मानसिक आरोग्यासाठी नवीन आव्हाने सादर केली गेली आहेत, विशेषत: तरुण वापरकर्त्यांमध्ये. लोक चॅटबॉट्सशी वाढत्या प्रमाणात बोलत आहेत जसे की ते एखाद्या मित्राशी बोलत आहेत, रहस्येची देवाणघेवाण करीत आहेत आणि त्यांच्यावर सोबतीवर अवलंबून आहेत. जरी या वापराचा मानसिक आरोग्यावर काही सकारात्मक परिणाम होऊ शकतो, परंतु तज्ञांच्या म्हणण्यानुसार हे हानिकारक असू शकते जे हानिकारक वर्तन वाढवते किंवा चुकीचा सल्ला प्रदान करते. .

कृत्रिम बुद्धिमत्ता वापरण्याबद्दल एपीएने काय शिफारस केली

हानिकारक आणि त्रुटी सामग्रीवर प्रवेश मर्यादित करणे आणि डेटा गोपनीयता आणि तरुण वापरकर्त्यांच्या परिणामाचे संरक्षण करणे यासह किशोरवयीन मुले सुरक्षितपणे कृत्रिम बुद्धिमत्ता वापरू शकतात हे सुनिश्चित करण्यासाठी या गटाने अनेक वेगवेगळ्या मार्गांवर आवाहन केले.

प्रौढ वापरकर्ते आणि तरुण लोकांमधील मुख्य फरक म्हणजे प्रौढांना कृत्रिम बुद्धिमत्तेच्या अचूकतेवर आणि बुद्धिमत्तेवर प्रश्न विचारण्याची अधिक शक्यता असते. तरुण व्यक्ती योग्य पातळीवर सुसंवाद साधण्यासाठी (वयाच्या 10 आणि 25 व्या वर्षी पौगंडावस्थेतील किशोरवयीन मुलांकडून अहवाल निश्चित करू शकत नाही) सक्षम होऊ शकत नाही.

चॅटबॉट्स किंवा रोल -प्लेइंग टूल सारख्या कृत्रिम बुद्धिमत्ता घटकांसह संबंध. महत्त्वाचे वास्तविक जग लोक त्यांच्या विकासासह शिकलेल्या मानवी सामाजिक संबंधांची जागा घेऊ शकतात. अहवालात म्हटले आहे: “प्रारंभिक संशोधन असे सूचित करते की कृत्रिम बुद्धिमत्तेपासून तयार केलेल्या पात्रांचे मजबूत संलग्नक सामाजिक कौशल्ये शिकून आणि भावनिक संबंध विकसित करून संघर्षात योगदान देऊ शकतात.”

डार्टमाउथमधील बायोमेडिकल डेटा सायन्स आणि मानसोपचारांचे सहयोगी प्राध्यापक निक जेकबसन यांनी सांगितले की, विसाव्या शतकाच्या पौगंडावस्थेतील आणि विसाव्या दशकाच्या सुरुवातीच्या लोकांमध्ये सामाजिक प्रथा आणि कौशल्ये विकसित होत आहेत ज्यामुळे वयस्कता वाढेल आणि सामाजिकदृष्ट्या जीवन कसे असू शकते यावर बदल. ते म्हणाले, “विकासाचे हे टप्पे नंतर जे घडत आहेत त्याचे एक मॉडेल असू शकतात,” ते म्हणाले.

एपीएच्या अहवालात विकसकांना अशी प्रणाली तयार करण्याची मागणी केली गेली आहे जी मानवी संबंधांची धूप रोखते, जसे की रोबोट हा मनुष्य नाही याची आठवण करून देणारे तसेच तरुणांच्या हिताचे रक्षण करण्यासाठी संघटनात्मक बदल.

इतर शिफारसींमध्ये हे समाविष्ट आहे की प्रौढांद्वारे वापरण्यासाठी नियुक्त केलेल्या साधनांमध्ये आणि मुलांद्वारे वापरल्या जाणार्‍या साधनांमध्ये फरक असणे आवश्यक आहे, जसे की डीफॉल्टनुसार बनवलेल्या वयासाठी योग्य सेटिंग्ज आणि कमी खात्री पटवून देणार्‍या डिझाइन. त्यांची सुरक्षा सुनिश्चित करण्यासाठी सिस्टममध्ये मानवी नियंत्रण आणि तीव्र चाचणी असणे आवश्यक आहे.

एपीए म्हणाले की शाळा आणि धोरणकर्त्यांनी साक्षरता, कर्जमाफीच्या आंतरराष्ट्रीय आणि जबाबदारीने साधने कशी वापरावी यावर शिक्षणास प्राधान्य द्यावे. यात पूर्वाग्रह आणि चुकीच्या माहितीसाठी कृत्रिम बुद्धिमत्तेच्या आउटपुटचे मूल्यांकन कसे करावे यावरील चर्चेचा समावेश असावा. “या शिक्षणाने तरुणांना कृत्रिम बुद्धिमत्ता म्हणजे काय, ते कसे कार्य करते, त्याचे संभाव्य फायदे आणि निर्बंध, वैयक्तिक डेटावरील गोपनीयता हितसंबंध आणि अत्यधिक अवलंबित्वाचे जोखीम समजून घेण्यासाठी ज्ञान आणि कौशल्ये प्रदान करणे आवश्यक आहे,” असे अहवालात म्हटले आहे.

सुरक्षित आणि असुरक्षित कृत्रिम बुद्धिमत्तेचा वापर निश्चित करा

जेकबसन म्हणाले की, नवीन आणि वेगवान -वाढणार्‍या तंत्रामुळे संभाव्य विकासाच्या नुकसानीसाठी सर्वात असुरक्षित लोकांच्या मानसिक आरोग्यावर कसा परिणाम होतो याविषयी अनिश्चिततेने कुस्ती करणारे मानसशास्त्रज्ञांचे स्पष्टीकरण या अहवालात स्पष्ट केले आहे.

त्यांनी मला सांगितले: “सामाजिक विकासावर एआय (एआय) कसा प्रभाव पाडतो याविषयी बारकाईने खरोखर विस्तृत आहे.” “हे एक नवीन तंत्रज्ञान आहे जे इंटरनेटसारख्या मानवी विकासावर होणार्‍या परिणामाच्या दृष्टीने उत्कृष्ट असू शकते.”

जेकबसन म्हणाले की कृत्रिम बुद्धिमत्ता मानसिक आरोग्यासाठी फायदेशीर ठरू शकते आणि हानिकारक असू शकते. त्यांनी आणि डार्टमाउथमधील इतर संशोधकांनी अलीकडेच चॅटबॉट, अ‍ॅम्नेस्टी इंटरनॅशनल वर एक अभ्यास प्रसिद्ध केला, ज्यात उपचार देण्याचे वचन दिले होते, परंतु विशेषत: उपचार पद्धतींचे पालन करण्यासाठी डिझाइन केले गेले होते आणि त्याचे बारकाईने निरीक्षण केले गेले. ते म्हणाले की अधिक सामान्य कृत्रिम बुद्धिमत्ता साधने चुकीची माहिती प्रदान करू शकतात किंवा हानिकारक वर्तनांना प्रोत्साहित करू शकतात. त्यांनी चॅटजीपीटी मॉडेलमध्ये सायकोफॅन्सीसह अलीकडील समस्यांचा उल्लेख केला, जो शेवटी मागे हटला.

ते म्हणाले, “कधीकधी ही साधने त्या गंभीर प्रमाणीकरणाची पडताळणी करण्याच्या मार्गांशी जोडली जातात, परंतु काहीवेळा आपण अत्यंत हानिकारक अशा प्रकारे कार्य करू शकता.”

जेकबसन म्हणाले की कृत्रिम बुद्धिमत्ता वापरण्याच्या मानसिक प्रभावांवर संशोधन करणे आणि प्रेक्षकांना जे शिकतात त्याबद्दल शिक्षण देणे वैज्ञानिकांनी महत्वाचे आहे.

ते म्हणाले, “क्षेत्राची वारंवारता फारच वेगवान आहे आणि आम्हाला विज्ञान गोळा करण्यासाठी जागेची आवश्यकता आहे,” ते म्हणाले.

आरोग्याच्या माहितीच्या चुकीच्यातेवर जोर देताना आणि गोपनीयता सेटिंग्जचे पुनरावलोकन करणे यासह, किशोरवयीन मुले एआय सुरक्षितपणे वापरतात हे सुनिश्चित करण्यासाठी एपीएने सूचना दिल्या आहेत.

Source link