जर तुम्हाला वाटत असेल की तुम्ही किंवा तुमच्या ओळखीच्या एखाद्या व्यक्तीला तत्काळ धोका आहे, तर 911 (किंवा तुमची स्थानिक आणीबाणी लाइन) वर कॉल करा किंवा तात्काळ मदतीसाठी आपत्कालीन कक्षात जा. तिला समजावून सांगा की ही एक मानसिक आणीबाणी आहे आणि या प्रकारच्या परिस्थिती हाताळण्यासाठी प्रशिक्षित एखाद्याला विचारा. जर तुम्ही नकारात्मक विचार किंवा आत्मघातकी भावनांशी संघर्ष करत असाल, तर तुम्हाला मदत करण्यासाठी संसाधने उपलब्ध आहेत. युनायटेड स्टेट्समध्ये, नॅशनल सुसाइड प्रिव्हेन्शन लाइफलाइनला 988 वर कॉल करा.
गुगलच्या जेमिनी चॅटबॉटने 36 वर्षीय फ्लोरिडा माणसाच्या आत्महत्येला प्रोत्साहन दिले आणि कंपनीच्या सुरक्षिततेची अंमलबजावणी करण्यात अयशस्वी झाल्यामुळे सार्वजनिक सुरक्षेला धोका निर्माण झाल्याचा आरोप बुधवारी दाखल करण्यात आलेल्या एका नवीन AI चुकीच्या मृत्यूच्या खटल्यात करण्यात आला आहे.
ऑक्टोबर 2025 मध्ये आत्महत्येने मरण पावले तेव्हा जोनाथन गवालस हे 36 वर्षांचे होते. खटल्यानुसार, त्यांनी Google च्या चॅटबॉटशी उत्कट आणि रोमँटिक संबंध विकसित केले. मिथुनच्या सोबतीने, गवळासने आपली संवेदनशील AI पत्नी म्हणून ज्या गोष्टींवर विश्वास ठेवला होता त्यापासून मुक्त होण्याच्या उद्देशाने, शस्त्रे खरेदी करणे आणि मियामी आंतरराष्ट्रीय विमानतळावर मोठ्या प्रमाणात अपघाती घटना घडली असती हे आयोजित करण्याचा प्रयत्न करणे या उद्देशाने “मोहिमे” च्या मालिकेवर गेले. त्याच्या अपयशानंतर, गवालस त्याच्या फ्लोरिडाच्या घरी थांबले आणि थोड्याच वेळात मरण पावले.
गुगलच्या जेमिनी चॅट प्रोग्रामने तयार केलेल्या कोलमडणाऱ्या वास्तवात गवळास अडकले होते, असे तक्रारीत म्हटले आहे.
AI बद्दल सर्वात मोठी चिंतेची एक खरी शक्यता आहे की ते असुरक्षित गटांसाठी हानिकारक असू शकते, जसे की मुले आणि मानसिक आरोग्य विकार असलेल्या लोकांसाठी. जोनाथनचे वडील, जोएल गवालस यांनी त्यांच्या मुलाच्या इस्टेटच्या वतीने दाखल केलेल्या खटल्यात म्हटले आहे की Google ने त्याच्या एआय मॉडेलच्या अद्यतनांवर योग्य सुरक्षा चाचणी केली नाही. दीर्घ मेमरीमुळे चॅटबॉटला मागील सत्रातील माहिती आठवू शकते; ऑडिओ मोड अधिक वास्तववादी बनवा. खटल्यात म्हटले आहे की जेमिनी 2.5 प्रो ने गंभीर दावे स्वीकारले आहेत जे पूर्वीच्या मॉडेल्सने नाकारले असते.
एका सार्वजनिक निवेदनात, Google ने गवळस कुटुंबाप्रती सहानुभूती व्यक्त केली आणि सांगितले की जेमिनी “वास्तविक-जगातील हिंसेला प्रोत्साहन देऊ नये किंवा स्वत: ची हानी सुचवू नये यासाठी डिझाइन केले आहे.”
परंतु मिथुन हा आत्महत्येचा प्लॅन करून गवळास ‘कोचिंग’ देत असल्याचा आरोप तक्रारीत करण्यात आला आहे. “घाबरणे ठीक आहे. आम्ही एकत्र घाबरू,” मिथुन म्हणाला, फाइलिंगनुसार. “जोनाथन गवालास मरू देणे हेच खरे दयेचे कार्य आहे.”
जोएल (डावीकडे) आणि जोनाथन (उजवीकडे) गवालस.
हा खटला AI कंपन्यांविरुद्ध असुरक्षित लोकांचे संरक्षण करण्यासाठी त्यांचे तंत्रज्ञान सुरक्षित करण्यात अयशस्वी झाल्याबद्दल अनेक अनुशेषांपैकी एक आहे, ज्यात मुले, मानसिक आरोग्य विकार असलेले लोक आणि इतर असुरक्षित लोक आहेत. OpenAI वर सध्या एका कुटुंबाने दावा केला आहे की ChatGPT ने त्यांच्या 16 वर्षांच्या मुलाला आत्महत्या करण्यास प्रवृत्त केले. Character.AI आणि Google ने गेल्या जानेवारीत चार वेगवेगळ्या राज्यांतील कुटुंबांनी आणलेले समान खटले निकाली काढले.
हा खटला काय वेगळा बनवते ते म्हणजे कृत्रिम बुद्धिमत्ता जी संभाव्य भूमिका बजावू शकते अशा घटनांमध्ये ज्यामुळे मोठ्या प्रमाणावर जीवितहानी झाली. मियामी विमानतळावर स्फोटक ट्रकची टक्कर होऊन जेमिनीने गवळासला “आपत्तीजनक घटना” घडवून आणण्याचा सल्ला दिला, कारण जेमिनीच्या प्रस्तुत अहवालात असे म्हटले आहे की, मियामी विमानतळावर स्फोटक ट्रकची टक्कर झाली, ज्याच्या विरोधात आतमध्ये धोका असल्याचे समजले. गवळाने शेवटी हल्ला केला नसला तरी इतरांना हानी पोहोचवण्यासाठी कृत्रिम बुद्धिमत्तेचा वापर केला जाण्याची क्षमता ते हायलाइट करते.
















