अभ्यासानुसार, बातम्यांबद्दलच्या प्रश्नांच्या 45 टक्के प्रतिसादांमध्ये किमान एक ‘महत्त्वाची’ समस्या होती.
22 ऑक्टोबर 2025 रोजी प्रकाशित
एआय मॉडेल जसे की ChatGPT नियमितपणे बातम्यांच्या घटनांचे चुकीचे वर्णन करतात आणि अर्ध्या वेळेस प्रश्नांना चुकीचे प्रतिसाद देतात, असे एका अभ्यासात आढळून आले आहे.
युरोपियन ब्रॉडकास्टिंग युनियन (EBU) आणि BBC द्वारे बुधवारी प्रकाशित केलेल्या अभ्यासात OpenAI च्या ChatGPT, Google च्या Gemini, Microsoft च्या Copilot आणि Confusion द्वारे प्रदान केलेल्या 2,700 हून अधिक प्रतिसादांच्या अचूकतेचे मूल्यांकन केले गेले.
सुचलेल्या कथा
4 वस्तूंची यादीयादीचा शेवट
18 देश आणि 14 भाषांचे प्रतिनिधित्व करणाऱ्या 22 सार्वजनिक मीडिया आउटलेट्सने संशोधनासाठी मे अखेर आणि जूनच्या सुरुवातीदरम्यान AI सहाय्यकांना एक साधा प्रश्न विचारला.
एकूणच, 45 टक्के प्रतिसादांना किमान एक “महत्त्वपूर्ण” समस्या होती, अभ्यासानुसार.
सोर्सिंग ही सर्वात सामान्य समस्या होती, 31 टक्के प्रतिसाद उद्धृत स्त्रोतांद्वारे समर्थित नसलेली माहिती, किंवा चुकीची किंवा असत्यापित विशेषता, इतर समस्यांसह.
अचूकतेचा अभाव हा चुकीच्या उत्तरांसाठी पुढील सर्वात मोठा योगदानकर्ता होता, ज्याने 20 टक्के प्रतिसादांना प्रभावित केले, त्यानंतर 14 टक्के सह योग्य संदर्भाची अनुपस्थिती.
मिथुनला सर्वात लक्षणीय समस्या होत्या, प्रामुख्याने सोर्सिंगसह, 76 टक्के प्रतिसादांवर परिणाम झाला, अभ्यासानुसार.
अभ्यासानुसार, अभ्यास केलेल्या सर्व एआय मॉडेल्समध्ये मूलभूत माहितीच्या चुका झाल्या.
उद्धृत त्रुटींमध्ये झेक प्रजासत्ताकमध्ये सरोगसी बेकायदेशीर असल्याचा दावा करणारा पॅराप्लेक्सी आणि ChatGPT ने पोप फ्रान्सिस यांना त्यांच्या मृत्यूच्या काही महिन्यांनंतर बसलेले पोप म्हणून नाव दिले आहे.
OpenAI, Google, Microsoft आणि Perplexity यांनी टिप्पणीसाठी केलेल्या विनंत्यांना त्वरित प्रतिसाद दिला नाही.
अहवालाच्या अग्रलेखात, EBU चे डेप्युटी जनरल जीन-फिलिप डी टेंडर आणि बीबीसीचे एआयचे प्रमुख पीट आर्चर यांनी टेक कंपन्यांना त्यांच्या उत्पादनांमधील त्रुटी कमी करण्यासाठी अधिक प्रयत्न करण्याचे आवाहन केले.
“त्यांनी या समस्येला प्राधान्य दिलेले नाही आणि आता तसे करणे आवश्यक आहे,” डी टेंडर आणि आर्चर म्हणाले.
“त्यांना भाषा आणि बाजारपेठेद्वारे नियमितपणे त्यांचे निकाल जाहीर करून पारदर्शक असणे आवश्यक आहे.”