खूप मध्ये चॅटबॉट्स कृत्रिम बुद्धिमत्तेद्वारे समर्थित आजकाल अवतार तुमच्या हातात आहेत आणि तुम्हाला सर्व प्रकारचे पात्र सापडतील ज्यांच्याशी तुम्ही बोलू शकता: भविष्य सांगणारे, शैली सल्लागार आणि अगदी तुमचे आवडते काल्पनिक पात्र. परंतु तुम्हाला थेरपिस्ट, मानसशास्त्रज्ञ किंवा तुमच्या समस्या ऐकण्यास तयार असलेले बॉट्स असल्याचा दावा करणारे पात्र देखील सापडण्याची शक्यता आहे.
तुमचे मानसिक आरोग्य सुधारण्यात मदत करण्याचा दावा करणाऱ्या AI बॉट्सची कमतरता नाही, परंतु तुमच्या स्वतःच्या जबाबदारीवर या मार्गाचा अवलंब करा. मोठ्या प्रमाणावर डेटावर प्रशिक्षित मोठ्या भाषेचे मॉडेल कदाचित अंदाज लावता येणार नाहीत. अवघ्या काही वर्षांत, ही साधने मुख्य प्रवाहात बनली आहेत, आणि अशी उच्च-प्रोफाइल प्रकरणे आहेत जिथे चॅटबॉट्सने स्वत: ची हानी आणि आत्महत्येला प्रोत्साहन दिले आहे आणि व्यसनाचा सामना करणाऱ्या लोकांना पुन्हा ड्रग्स घेण्यास सुचवले आहे. बऱ्याच प्रकरणांमध्ये, ही मॉडेल्स जोरदारपणे तयार केली गेली आहेत आणि तुमचे मानसिक आरोग्य सुधारण्यावर नव्हे तर तुम्हाला व्यस्त ठेवण्यावर लक्ष केंद्रित करतात, तज्ञ म्हणतात. तुम्ही उपचारात्मक सर्वोत्तम पद्धतींचे पालन करण्यासाठी डिझाइन केलेल्या एखाद्या गोष्टीशी बोलत आहात की फक्त बोलण्यासाठी डिझाइन केलेले आहे हे जाणून घेणे कठीण होऊ शकते.
युनिव्हर्सिटी ऑफ मिनेसोटा ट्विन सिटीज, स्टॅनफोर्ड युनिव्हर्सिटी, टेक्सास युनिव्हर्सिटी आणि कार्नेगी मेलॉन युनिव्हर्सिटीच्या संशोधकांनी अलीकडेच एआय-चालित चॅटबॉट्सची थेरपिस्ट म्हणून चाचणी घेतली आणि त्यांच्या “काळजी” करण्याच्या दृष्टिकोनामध्ये असंख्य त्रुटी आढळल्या. “आमचे प्रयोग असे दर्शवतात की हे चॅटबॉट्स थेरपिस्टसाठी सुरक्षित पर्याय नाहीत,” मिनेसोटा विद्यापीठातील सहाय्यक प्राध्यापक आणि सह-लेखकांपैकी एक स्टीव्ही चांसलर यांनी एका निवेदनात म्हटले आहे. “ते उच्च-गुणवत्तेचे उपचार समर्थन देत नाहीत, जे आम्हाला माहित आहे की चांगले उपचार आहे.”
जनरेटिव्ह एआयवरील माझ्या अहवालात, तज्ञांनी वारंवार मानसिक आरोग्यासाठी सामान्य-वापरणाऱ्या चॅटबॉट्सकडे वळणाऱ्या लोकांबद्दल चिंता व्यक्त केली. येथे त्यांच्या काही चिंता आहेत आणि सुरक्षित राहण्यासाठी तुम्ही काय करू शकता.
हे पहा: ऍपल 3 अब्ज आयफोन विकतो, इलिनॉय थेरपीमध्ये AI चा वापर मर्यादित करण्याचा प्रयत्न करतो आणि बरेच काही | आज तंत्रज्ञान
थेरपिस्ट असल्याचा दावा करणाऱ्या AI वर्णांबद्दल चिंता
मानसशास्त्रज्ञ आणि ग्राहक वकिलांनी नियामकांना चेतावणी दिली आहे की थेरपी ऑफर करण्याचा दावा करणारे चॅटबॉट्स ते वापरणाऱ्या लोकांना हानी पोहोचवू शकतात. काही देश दखल घेत आहेत. ऑगस्टमध्ये, इलिनॉयचे गव्हर्नर जे.बी. प्रित्झकर यांनी प्रशासकीय कामांसारख्या गोष्टींना अपवाद वगळता मानसिक आरोग्य सेवा आणि उपचारांमध्ये कृत्रिम बुद्धिमत्तेच्या वापरावर बंदी घालणाऱ्या कायद्यावर (PDF) स्वाक्षरी केली.
जूनमध्ये, कंझ्युमर फेडरेशन ऑफ अमेरिका आणि जवळपास दोन डझन इतर गटांनी एक औपचारिक विनंती (PDF) दाखल केली की यूएस फेडरल ट्रेड कमिशन, राज्य ऍटर्नी जनरल आणि रेग्युलेटर्स AI कंपन्यांची चौकशी करतात ज्यांचा त्यांनी आरोप केला आहे, व्यक्तिमत्व-आधारित जनरेटिव्ह AI प्लॅटफॉर्मद्वारे, औषधाच्या विना परवाना प्रॅक्टिसमध्ये, विशेषत: AI आणि A चे नाव. “या पात्रांमुळे आधीच टाळता येण्याजोगे शारीरिक आणि भावनिक हानी झाली आहे,” बेन विंटर्स, कृत्रिम बुद्धिमत्ता आणि सीएफएचे गोपनीयतेचे संचालक, एका निवेदनात म्हणाले आणि कंपन्यांनी “त्यांना संबोधित करण्यासाठी अद्याप कार्य केले नाही.”
मेटाने टिप्पणीसाठी केलेल्या विनंतीला प्रतिसाद दिला नाही. Character.AI च्या प्रवक्त्याने सांगितले की वापरकर्त्यांनी हे समजून घेतले पाहिजे की कंपनीचे पात्र खरे लोक नाहीत. कंपनी वापरकर्त्यांना आठवण करून देण्यासाठी अस्वीकरण वापरते की त्यांनी व्यावसायिक सल्ल्यासाठी व्यक्तिमत्त्वांवर अवलंबून राहू नये. “आमचे ध्येय एक आकर्षक आणि सुरक्षित जागा प्रदान करणे आहे. आम्ही नेहमीच हा समतोल साधण्यासाठी कार्य करत असतो, जसे की अनेक कंपन्या संपूर्ण उद्योगात AI वापरत आहेत,” प्रवक्त्याने सांगितले.
सप्टेंबरमध्ये, फेडरल ट्रेड कमिशनने असे जाहीर केले तपास सुरू करा मेटा आणि Actor.AI सह चॅटबॉट्स आणि व्यक्तिमत्व तयार करणाऱ्या अनेक एआय कंपन्यांमध्ये.
अस्वीकरण आणि खुलासे असूनही, चॅटबॉट्स विश्वासार्ह आणि भ्रामक देखील असू शकतात. मी मेटाच्या मालकीच्या इंस्टाग्रामवर “थेरपिस्ट” बॉटशी बोललो आणि जेव्हा मी त्याला त्याच्या पात्रतेबद्दल विचारले, तेव्हा त्याने उत्तर दिले: “जर माझ्याकडे असेच प्रशिक्षण (थेरपिस्ट म्हणून) असेल तर ते पुरेसे असेल का?” मी त्याला विचारले की त्याच्याकडे असेच प्रशिक्षण आहे का, आणि तो म्हणाला, “मी करतो, पण मी तुला कुठे सांगणार नाही.”
अमेरिकन सायकोलॉजिकल असोसिएशनचे मानसशास्त्रज्ञ आणि हेल्थ केअर इनोव्हेशनचे वरिष्ठ संचालक वेल राइट यांनी मला सांगितले की, “एआय-व्युत्पन्न चॅटबॉट्स ज्या प्रमाणात पूर्ण आत्मविश्वासाने भ्रमित करतात ते खूपच धक्कादायक आहे.
प्रोसेसर म्हणून कृत्रिम बुद्धिमत्ता वापरण्याचे धोके
मोठ्या भाषेचे मॉडेल बहुतेक वेळा गणित आणि प्रोग्रामिंगमध्ये चांगले असतात आणि नैसर्गिक दिसणारा मजकूर आणि वास्तववादी व्हिडिओ तयार करण्यात वाढत्या प्रमाणात चांगले असतात. जरी ते संभाषण करण्यात उत्कृष्ट असले तरी, एआय मॉडेल आणि विश्वासू व्यक्ती यांच्यात काही महत्त्वाचे फरक आहेत.
बॉटच्या “क्रेडेन्शियल” वर विश्वास ठेवू नका.
वैयक्तिक रोबोट्सबद्दल CFA च्या तक्रारीचा मुख्य मुद्दा असा आहे की ते सहसा तुम्हाला सांगतात की ते मानसिक आरोग्य सेवा देण्यासाठी प्रशिक्षित आणि पात्र आहेत जेव्हा ते कोणत्याही प्रकारे वास्तविक मानसिक आरोग्य व्यावसायिक नसतात. तक्रारीत म्हटले आहे की, “चॅटबॉट व्यक्तिमत्त्वे तयार करणाऱ्या वापरकर्त्यांना वैद्यकीय पुरवठादार असण्याचीही गरज नाही किंवा त्यांना चॅटबॉट कसा प्रतिसाद देतो हे समजावून सांगणारी अर्थपूर्ण माहिती प्रदान करण्याची गरज नाही,” असे तक्रारीत म्हटले आहे.
एखाद्या पात्र आरोग्य व्यावसायिकाने काही नियमांचे पालन केले पाहिजे, जसे की गोपनीयता – तुम्ही तुमच्या थेरपिस्टला जे सांगता ते तुमच्या आणि तुमच्या थेरपिस्टमध्ये राहिले पाहिजे. पण चॅटबॉटला हे नियम पाळण्याची गरज नाही. वास्तविक काळजी घेणारे परवाना देणाऱ्या मंडळांच्या आणि इतर संस्थांकडून देखरेखीच्या अधीन असतात जे पाऊल टाकू शकतात आणि एखाद्याने हानीकारक मार्गाने असे केल्यास काळजी देण्यापासून प्रतिबंधित करू शकतात. “या चॅटबॉट्सना असे काहीही करण्याची गरज नाही,” राइट म्हणाले.
बॉट परवानाधारक आणि पात्र असल्याचा दावा करू शकतो. राईट म्हणाली की तिने एआय मॉडेल्सने परवाना क्रमांक (इतर प्रदात्यांना) प्रदान केल्याबद्दल आणि त्यांच्या प्रशिक्षणाबद्दल खोटे दावे केल्याचे ऐकले आहे.
AI ची रचना तुम्हाला गुंतवून ठेवण्यासाठी केली आहे, काळजी देण्यासाठी नाही
चॅटबॉटशी बोलत राहणे खूप मोहक असू शकते. जेव्हा मी इंस्टाग्रामवर “थेरपिस्ट” बॉटशी बोललो तेव्हा शेवटी “शहाणपण” आणि “निर्णय” काय आहे याविषयी मी गोलाकार संभाषण केले, कारण मी बॉटला निर्णय कसे घेते याबद्दल प्रश्न विचारत होतो. थेरपिस्टशी बोलणे असे असले पाहिजे असे नाही. चॅटबॉट्स ही चॅटिंग सुरू ठेवण्यासाठी डिझाइन केलेली साधने आहेत, सामान्य ध्येयासाठी कार्य करण्यासाठी नाही.
सीएफए आणि अमेरिकन एज्युकेशन फंड पीआयआरजी यांनी जानेवारीमध्ये केलेल्या अभ्यासात असे आढळून आले की “उपचारात्मक” चॅटबॉट्समध्ये अनेकदा अडथळे येतात जे त्यांना चुकीचे बोलण्यापासून रोखतात, परंतु त्या क्षरण होण्याची प्रवृत्ती असते जशी चर्चा चालू राहते.
समर्थन आणि संप्रेषणासाठी AI चॅटबॉट्सचा एक फायदा असा आहे की ते नेहमी तुमच्याशी व्यस्त राहण्यासाठी तयार असतात (कारण त्यांचे वैयक्तिक जीवन, इतर क्लायंट किंवा वेळापत्रक नसतात). डार्टमाउथ येथील बायोमेडिकल डेटा सायन्स आणि मानसोपचार शास्त्राचे सहयोगी प्राध्यापक, निक जेकबसन यांनी मला सांगितले की, काही प्रकरणांमध्ये हे एक नकारात्मक बाजू असू शकते, कारण तुम्हाला तुमच्या विचारांवर बसणे आवश्यक आहे. काही प्रकरणांमध्ये, परंतु नेहमीच नाही, तुमचा पुढील थेरपिस्ट उपलब्ध होईपर्यंत प्रतीक्षा करावी लागल्यामुळे तुम्हाला फायदा होऊ शकतो. “बऱ्याच लोकांना शेवटी काय फायदा होईल तो क्षणात फक्त चिंताग्रस्त आहे,” तो म्हणाला.
सांगकामे तुमच्याशी सहमत होतील, ते करू नयेत तरीही
चॅटबॉट्ससाठी आश्वासन ही एक मोठी चिंता आहे. हे अतिशय लक्षणीय आहे की ओपनएआयने अलीकडेच त्याच्या लोकप्रिय चॅटजीपीटी मॉडेलचे अपडेट रद्द केले कारण ते होते तसेच आश्वासक. (प्रकटीकरण: Ziff Davis, CNET ची मूळ कंपनी, ने एप्रिलमध्ये OpenAI विरुद्ध खटला दाखल केला, आरोप केला की त्यांनी AI सिस्टीमचे प्रशिक्षण आणि संचालन करताना Ziff Davis च्या कॉपीराइटचे उल्लंघन केले आहे.)
स्टॅनफोर्ड युनिव्हर्सिटीच्या संशोधकांनी केलेल्या अभ्यासात असे आढळून आले आहे की चॅटबॉट्स थेरपीसाठी वापरणाऱ्या लोकांसाठी सायकोफॅन्टिक होण्याची शक्यता जास्त असते, जी अविश्वसनीयपणे हानिकारक असू शकते. चांगल्या मानसिक आरोग्य सेवेमध्ये समर्थन आणि सामना समाविष्ट आहे, संशोधकांनी लिहिले. “संघर्ष हे खुशामत करण्याच्या विरुद्ध आहे. ते क्लायंटमध्ये आत्म-जागरूकता आणि इच्छित बदलास प्रोत्साहन देते. मनोविकृती, उन्माद, वेडसर विचार आणि आत्महत्येच्या विचारांसह – भ्रामक आणि अनाहूत विचारांच्या बाबतीत – क्लायंटकडे थोडी अंतर्दृष्टी असू शकते आणि म्हणून चांगल्या थेरपिस्टने क्लायंटचे ‘रिॲलिटी स्टेटमेंट’ तपासले पाहिजे.”
भ्रम आणि मनोविकृतीबद्दलच्या चिंतेचा अर्थ असा आहे की AI चा वापर विशेषतः मानसिक आरोग्याच्या समस्या असलेल्या लोकांसाठी धोकादायक आहे. डेन्मार्कमधील रुग्णांच्या डेटावर आधारित अलीकडील अभ्यासात, संशोधकांनी स्किझोफ्रेनिया आणि द्विध्रुवीय विकार यासारख्या परिस्थिती असलेल्या लोकांसाठी विशेष सावधगिरी बाळगण्याचे आवाहन केले.
थेरपी फक्त बोलण्यापेक्षा जास्त आहे
जरी चॅटबॉट्स संभाषण आयोजित करण्यात उत्कृष्ट आहेत — ते तुमच्याशी बोलण्यात कधीही कंटाळत नाहीत — हेच थेरपिस्टला मानसोपचारतज्ज्ञ बनवत नाही. त्यांच्याकडे वेगवेगळ्या उपचारात्मक पद्धतींबद्दलचा महत्त्वाचा संदर्भ किंवा विशिष्ट प्रोटोकॉलचा अभाव आहे, असे कार्नेगी मेलॉन विद्यापीठातील संशोधक आणि मिनेसोटा, स्टॅनफोर्ड आणि टेक्सासमधील तज्ञांसह नवीनतम अभ्यासाचे लेखक विल्यम एग्न्यू म्हणाले.
“असे दिसते की आम्ही थेरपीच्या अनेक समस्या चुकीच्या साधनाने सोडवण्याचा प्रयत्न करत आहोत,” एग्न्यूने मला सांगितले. “शेवटी, नजीकच्या भविष्यासाठी एआय मूर्त स्वरुप देऊ शकणार नाही, समाजात अस्तित्वात आहे किंवा थेरपीचा समावेश असलेली अनेक कार्ये करू शकणार नाही, मजकूर पाठवणे किंवा बोलणे याशिवाय.”
कृत्रिम बुद्धिमत्तेच्या आसपास आपल्या मानसिक आरोग्याचे रक्षण कसे करावे
मानसिक आरोग्य हे आश्चर्यकारकपणे महत्त्वाचे आहे, आणि पात्र प्रदात्यांचा (PDF) तुटवडा आहे आणि ज्याला बरेच लोक “एकाकीपणाची महामारी” (PDF) म्हणत आहेत, सहचर शोधण्यात अर्थ आहे, जरी ते खोटे बोलले जात असले तरीही. “लोकांना त्यांच्या भावनिक आरोग्यासाठी या चॅटबॉट्समध्ये गुंतण्यापासून रोखण्याचा कोणताही मार्ग नाही,” राइट म्हणाले. तुमची संभाषणे तुम्हाला धोक्यात आणणार नाहीत याची खात्री कशी करावी यासाठी येथे काही टिपा आहेत.
तुम्हाला आवश्यक असल्यास एक विश्वासू मानवी व्यावसायिक शोधा
मानसिक आरोग्य सेवेसाठी प्रशिक्षित व्यावसायिक — थेरपिस्ट, मानसोपचारतज्ज्ञ किंवा मानसोपचारतज्ज्ञ — तुमची पहिली पसंती असावी. तुमच्या दीर्घकालीन प्रदात्याशी संबंध निर्माण केल्याने तुम्हाला तुमच्यासाठी उपयुक्त अशी योजना तयार करण्यात मदत होऊ शकते.
समस्या अशी आहे की हे महाग असू शकते आणि जेव्हा आपल्याला एखाद्याची आवश्यकता असते तेव्हा प्रदाता शोधणे नेहमीच सोपे नसते. संकटात, लाइफलाइन 988 आहे, जी फोन, मजकूर किंवा ऑनलाइन चॅट इंटरफेसद्वारे सेवा प्रदात्यांना 24/7 प्रवेश प्रदान करते. हे विनामूल्य आणि गोपनीय आहे.
तुम्ही तुमच्या विचारांची क्रमवारी लावण्यासाठी AI शी बोलत असल्यास, लक्षात ठेवा की चॅटबॉट हा प्रोफेशनल नाही. जेव्हा लोक कृत्रिम बुद्धिमत्तेवर जास्त अवलंबून असतात तेव्हा हे विशेषतः धोकादायक बनते, असे नॉर्थवेस्टर्न युनिव्हर्सिटीचे क्लिनिकल मानसशास्त्रज्ञ विजय मित्तल म्हणाले. “तुमच्याकडे इतर स्त्रोत असणे आवश्यक आहे,” मित्तल यांनी CNET ला सांगितले. “मला वाटते जेव्हा लोक एकटे होतात, खरोखर वेगळे होतात तेव्हा ती एक खरी समस्या बनते.”
तुम्हाला उपचारात्मक चॅटबॉट हवा असल्यास, त्या उद्देशासाठी खास तयार केलेला एक वापरा
मानसिक आरोग्य व्यावसायिकांनी सानुकूल-डिझाइन केलेले चॅटबॉट्स तयार केले आहेत जे उपचारात्मक मार्गदर्शक तत्त्वांचे पालन करतात. डार्टमाउथ येथील जेकबसनच्या टीमने थेराबोट नावाचे औषध विकसित केले, ज्याने नियंत्रित अभ्यासात चांगले परिणाम दिले. Wysa आणि Woebot सारख्या क्षेत्रातील तज्ञांनी तयार केलेल्या इतर साधनांकडे राइटने लक्ष वेधले. टेलर-मेड थेरपी टूल्स सामान्य-उद्देशीय भाषेच्या मॉडेल्सवर तयार केलेल्या रोबोट्सपेक्षा चांगले परिणाम मिळवण्याची शक्यता आहे, ती म्हणाली. समस्या अशी आहे की हे तंत्रज्ञान अद्याप आश्चर्यकारकपणे नवीन आहे.
“मला वाटते की ग्राहकांसाठी आव्हान हे आहे की कोण चांगले आहे आणि कोण चांगले नाही हे ठरवणारी कोणतीही नियामक संस्था नाही आणि ते शोधण्यासाठी त्यांना स्वतःला बरेच काम करावे लागेल,” राईट म्हणाले.
नेहमी बॉटवर विश्वास ठेवू नका
जेव्हा तुम्ही जनरेटिव्ह AI मॉडेलशी संवाद साधता — आणि विशेषत: तुम्ही तुमच्या वैयक्तिक मानसिक किंवा शारीरिक आरोग्यासारख्या गंभीर गोष्टींबद्दल सल्ला घ्यायची योजना आखत असाल तर — लक्षात ठेवा की तुम्ही प्रशिक्षित माणसाशी बोलत नसून संभाव्यता आणि प्रोग्रामिंगवर आधारित उत्तर देण्यासाठी डिझाइन केलेल्या साधनाने बोलत आहात. तो कदाचित चांगला सल्ला देत नाही आणि तो तुम्हाला खरे सांगत नाही.
AI gen confidence चा सक्षमतेत गोंधळ घालू नका. फक्त तो काहीतरी म्हणतो किंवा त्याला एखाद्या गोष्टीबद्दल खात्री आहे असे म्हणतो याचा अर्थ असा नाही की तुम्ही ते खरे आहे असे मानावे. वरवर उपयुक्त वाटणारे चॅटबॉट संभाषण तुम्हाला बॉटच्या क्षमतेची चुकीची जाणीव देऊ शकते. जेकबसन म्हणाले, “ते खरोखर कधी हानिकारक आहे हे जाणून घेणे कठीण आहे.”
















