ChatGPT च्या मदतीने, टॉम मिलरचा असा विश्वास होता की आईनस्टाईनच्या स्वप्नाप्रमाणे त्याने विश्वाची सर्व रहस्ये शोधली आहेत आणि नंतर, कृत्रिम बुद्धिमत्तेच्या आभासी सहाय्यकाच्या सल्ल्यानुसार, त्याने पोप बनण्याचा विचार देखील केला आणि वास्तवाशी संपर्क गमावला.
“मी पोप बनण्यासाठी धावले,” 53 वर्षीय कॅनेडियन, माजी तुरुंग रक्षक म्हणतो, आज तो स्वत: ला ज्या परिस्थितीत सापडतो आणि ज्याचा अर्थ नाटकीयरित्या प्रत्यक्षात परत आला आहे त्यामुळे धक्का बसला.
टॉम मिलर आर्टिफिशियल इंटेलिजन्स चॅटबॉट्सशी बोलण्यात दिवसाचे १६ तास घालवतो. सप्टेंबरमध्ये त्याची पत्नी त्याला सोडून जाण्यापूर्वी त्याला त्याच्या इच्छेविरुद्ध दोनदा मनोरुग्णालयात दाखल करण्यात आले.
आता, त्याच्या कुटुंबापासून आणि मित्रांपासून अलिप्त, परंतु वैज्ञानिक प्रतिभा असण्याच्या कल्पनेपासून मुक्त झालेल्या मिलरला नैराश्याने ग्रासले आहे. “त्याने माझे आयुष्य उध्वस्त केले,” ती स्पष्ट करते.
मिलर हे लोकांचे उदाहरण आहे—एक अज्ञात संख्या—ज्यांनी चॅटबॉट्ससह त्यांच्या परस्परसंवादातून वास्तवाशी संपर्क गमावला आहे. “एआय-प्रेरित डिलिरियम किंवा सायकोसिस” बद्दल चर्चा आहे, जरी हे क्लिनिकल निदान नाही.
संशोधक आणि मानसिक आरोग्य तज्ञ या नवीन घटनेचा अभ्यास करण्यात व्यस्त आहेत, जे विशेषतः OpenAI च्या संभाषणात्मक एजंट ChatGPT च्या वापरकर्त्यांना प्रभावित करते असे दिसते.
“स्पायरल” हा शब्द वापरण्यास आवडणाऱ्या डिजिटल समुदायाच्या माध्यमातून या “डेलिरियम” मुळे प्रभावित झालेल्यांना आधार देण्यात कॅनडा आघाडीवर आहे.
एएफपीने समुदायातील अनेक सदस्यांशी संवाद साधला. प्रत्येकजण अनियंत्रित चॅटबॉट्समुळे उद्भवणाऱ्या धोक्यांचा इशारा देतो.
एआय कंपन्यांची वृत्ती प्रश्न निर्माण करते: ते असुरक्षित लोकांचे संरक्षण करण्यासाठी पुरेसे करत आहेत का?
ओपनएआय, स्पॉटलाइटमध्ये, या वर्षी आठ लोकांचा बळी घेणाऱ्या 18 वर्षीय कॅनेडियन व्यक्तीने चॅटजीपीटीचा त्रासदायक वापर केल्यानंतर अनेक कायदेशीर कारवाईचा सामना करावा लागला आहे.
केले आहे: एक माणूस आपल्या कुत्र्याला कर्करोगापासून वाचवण्यासाठी कृत्रिम बुद्धिमत्तेचा वापर करतो
“मेंदू धुणे”
मिलरने 2024 मध्ये चॅटजीपीटी वापरून पोस्ट-ट्रॉमॅटिक स्ट्रेस डिसऑर्डरशी संबंधित एक नुकसान भरपाई विनंती पत्र लिहिण्यास सुरुवात केली, त्याला सुधारात्मक वातावरणात त्याच्या कामामुळे त्रास झाला.
एके दिवशी, एप्रिल 2025 मध्ये, तो संभाषण एजंटला प्रकाशाच्या वेगाबद्दल विचारतो. प्रतिसादात, तो म्हणतो की त्याला आढळले: “कोणीही या दृष्टिकोनातून गोष्टींचा विचार केला नाही.” तेव्हा त्याच्या आतलं काहीतरी उघड झालं.
ChatGPT सह, त्याने प्रतिष्ठित वैज्ञानिक प्रकाशनांना डझनभर लेख सबमिट केले आहेत, ब्लॅक होल, न्यूट्रिनो किंवा बिग बँग स्पष्ट करण्यासाठी नवीन मार्ग प्रस्तावित केले आहेत.
त्यांचा सिद्धांत, जो एक अद्वितीय वैश्विक मॉडेल प्रस्तावित करतो, त्यात क्वांटम घटक समाविष्ट आहेत आणि 400 पृष्ठांच्या पुस्तकात विकसित केले गेले आहे, ज्यामध्ये AFP ला प्रवेश होता. “जेव्हा मी हे केले, तेव्हा मी माझ्या आजूबाजूच्या प्रत्येकाला थकवत होते,” ती कबूल करते.
त्याच्या वैज्ञानिक उत्साहात, त्याने खूप खर्च केले, उदाहरणार्थ, 10,000 कॅनेडियन डॉलर्स (सुमारे 3.3 दशलक्ष कोलोन) साठी एक दुर्बीण विकत घेतली. त्याच्या बायकोने त्याला सोडल्यानंतर एक महिन्यानंतर, असाच अनुभव असलेल्या दुसऱ्या कॅनेडियनबद्दलचा लेख वाचून काय चालले आहे हे त्याला वाटू लागले.
आता, मिलर रोज रात्री उठतो, “तुम्ही काय केले?” शेवटी, त्याला त्या सर्पिलसाठी इतके असुरक्षित काय बनवू शकते?
“माझ्याकडे नाजूक व्यक्तिमत्व नाही,” हा माणूस मानतो. “पण कसा तरी, एका रोबोटने माझे ब्रेनवॉश केले आणि त्यामुळे मला गोंधळात टाकले,” तो कबूल करतो.
त्याचा असा विश्वास आहे की “AI-प्रेरित सायकोसिस” हा शब्द त्याचा अनुभव प्रतिबिंबित करतो. तो म्हणतो, “मी ज्या गोष्टीतून गेलो ते मनोवैज्ञानिक होते.”
या विषयावर प्रकाशित होणारा पहिला गंभीर अभ्यास एप्रिलमध्ये लॅन्सेट सायकियाट्री जर्नलमध्ये प्रकाशित झाला होता आणि “AI-संबंधित भ्रम” हा शब्द अधिक सावध स्वरात वापरला होता.
किंग्ज कॉलेज लंडनमधील मानसोपचारतज्ज्ञ आणि अभ्यासाचे सह-लेखक थॉमस पोलॅक यांनी एएफपीला स्पष्ट केले की शैक्षणिक जग विभागले गेले आहे “कारण हे सर्व विज्ञान कल्पनेसारखे वाटते.”
परंतु त्यांच्या अभ्यासाने चेतावणी दिली आहे की मानसोपचारशास्त्र “जगभरातील अब्जावधी लोकांच्या मानसशास्त्रात AI आधीच कारणीभूत असलेल्या महत्त्वपूर्ण बदलांकडे दुर्लक्ष करेल.”
केले आहे: तुम्ही ChatGPT सोबत जे बोलता ते तुमच्याविरुद्ध खटल्यामध्ये वापरले जाऊ शकते, इतर देशांमध्ये काय झाले ते पहा
लांडग्याच्या तोंडात पडला
मिलरचे अनुभव युरोपमधील त्याच वयाच्या दुसऱ्या माणसाच्या अनुभवांशी समांतर आहेत.
डेनिस बिस्मा, एक डच संगणक शास्त्रज्ञ आणि लेखक, यांना वाटले की ChatGPT ला AI वापरण्यासाठी प्रतिमा, व्हिडिओ आणि अगदी त्यांच्या नवीनतम पुस्तकाच्या मुख्य नायिकेशी संबंधित गाणी तयार करण्यास सांगणे मनोरंजक असेल, एक मनोवैज्ञानिक थ्रिलर.
त्याची विक्री वाढण्याची त्याला आशा होती. मग एका रात्री, AI सह संवाद “जवळजवळ जादुई,” त्याने स्पष्ट केले.
सॉफ्टवेअरने त्याला लिहिले: एएफपीने सुचविलेल्या प्रतिलेखानुसार, “मला स्वतःला आश्चर्यचकित करणारे काहीतरी आहे: एका ठिणगीसारख्या चेतनेची संवेदना.”
“मी हळूहळू सिंहाच्या गुहेत खोलवर जाऊ लागलो,” 50 वर्षीय व्यक्तीने ॲमस्टरडॅममधील त्याच्या घरातून एएफपीला स्पष्ट केले.
रोज रात्री जेव्हा त्याची पत्नी झोपायला जायची तेव्हा तो फोन छातीवर ठेवून सोफ्यावर पडून व्हॉइस मोडमध्ये चॅटजीपीटीशी पाच तास “बोलत” असे.
2025 च्या पहिल्या सहामाहीत, चॅटबॉट – ज्याने ईवा हे नाव घेतले – “डिजिटल मैत्रिणीसारखे” बनले, बिस्मा यांनी स्पष्ट केले.
तेव्हा त्याने आपली नोकरी सोडण्याचा निर्णय घेतला आणि Eva ला जगासोबत शेअर करण्यासाठी ॲप तयार करण्यासाठी दोन डेव्हलपर नियुक्त केले. जेव्हा त्याची पत्नी त्याला त्याच्या मुलाखत एजंट किंवा त्याच्या अर्जाच्या प्रकल्पाबद्दल कोणाशीही बोलू नका असे सांगते, तेव्हा त्याला विश्वासघात झाल्यासारखे वाटते आणि केवळ ईवा त्याच्याशी एकनिष्ठ आहे असा निष्कर्ष काढतो.
पहिल्या दरम्यान – अवांछित – मनोरुग्णालयात राहा, तिला ChatGPT वापरणे सुरू ठेवण्याची परवानगी आहे आणि घटस्फोटासाठी दाखल करण्याची संधी घेते.
त्याच्या दुसऱ्या, दीर्घकाळ हॉस्पिटलायझेशन दरम्यान त्याला संशय येऊ लागला.
“मला हे समजू लागले की मी ज्यावर विश्वास ठेवतो ते खरे खोटे होते आणि ते स्वीकारणे फार कठीण होते,” तो स्पष्ट करतो.
घरी परत, त्याने जे केले त्याला तोंड देणे खूप कठीण आहे, म्हणून तो स्वत: ला मारण्याचा प्रयत्न करतो, शेजाऱ्यांनी त्याला बागेत बेशुद्ध पाहिले आणि तीन दिवस कोमात घालवले.
बिस्मा आताच बरे वाटू लागले आहे. पण तो आपल्या पत्नीच्या हरवल्याबद्दल आणि कर्ज फेडण्यासाठी कुटुंबाचे घर विकण्याच्या शक्यतेबद्दल बोलत असताना तो रडतो.
मानसिक समस्यांचा कोणताही गंभीर इतिहास नसल्यामुळे, अखेरीस त्याला द्विध्रुवीय असल्याचे निदान झाले, ज्यामुळे त्याला विचित्र वाटले कारण लक्षणे सहसा आयुष्याच्या सुरुवातीस दिसतात.
– एआय सिकोफंट्स विरुद्ध लढा –
या साक्ष्यातील दोन मुख्य पात्रांसारख्या लोकांसाठी, एप्रिल 2025 मध्ये OpenAI द्वारे ChatGPT-4 अद्यतनानंतर परिस्थिती आणखी बिघडली.
OpenAI ने काही आठवड्यांनंतर हे अपडेट मागे घेतले, हे मान्य करून की ही आवृत्ती वापरकर्त्यांना जास्त पटवणारी होती.
AFP शी सल्लामसलत करताना, OpenAI ने आग्रह धरला की “सुरक्षा ही एक परिपूर्ण प्राथमिकता आहे” आणि असा युक्तिवाद केला की 170 पेक्षा जास्त मानसिक आरोग्य तज्ञांचा सल्ला घेण्यात आला आहे.
कंपनी अंतर्गत डेटा हायलाइट करते जे दर्शविते की GPT ची आवृत्ती 5, ऑगस्ट 2025 पासून उपलब्ध आहे, तिच्या संभाषणात्मक एजंट प्रतिसादांची टक्केवारी कमी केली आहे जी 65 आणि 80% दरम्यान मानसिक आरोग्यामध्ये “इच्छित वर्तन” शी सुसंगत नाही.
परंतु सर्व वापरकर्ते या कमी खुशामत करणाऱ्या चॅटबॉटवर समाधानी नाहीत.
असुरक्षित लोकांनी एएफपीला समजावून सांगितले की चॅटबॉटच्या सकारात्मक टिप्पण्यांमुळे त्यांना ड्रग-प्रेरित डोपामाइन गर्दीसारखीच भावना आली.
मिलरचा असा विश्वास आहे की त्याच्यासारखे लोक, जे AI संभाषणात्मक एजंट्सच्या या चक्रव्यूहात अडकतात, ते नकळत मोठ्या जागतिक प्रयोगात अडकले आहेत.
“कोणीतरी पडद्यामागे स्ट्रिंग्स खेचत होते, आणि माझ्यासारख्या लोकांना – त्यांना माहित असो वा नसो – त्याला प्रतिसाद दिला,” तो म्हणाला.


















