अभ्यासानुसार, बातम्यांबद्दलच्या प्रश्नांच्या 45 टक्के प्रतिसादांमध्ये किमान एक ‘महत्त्वाची’ समस्या होती.

एआय मॉडेल जसे की ChatGPT नियमितपणे बातम्यांच्या घटनांचे चुकीचे वर्णन करतात आणि अर्ध्या वेळेस प्रश्नांना चुकीचे प्रतिसाद देतात, असे एका अभ्यासात आढळून आले आहे.

युरोपियन ब्रॉडकास्टिंग युनियन (EBU) आणि BBC द्वारे बुधवारी प्रकाशित केलेल्या अभ्यासात OpenAI च्या ChatGPT, Google च्या Gemini, Microsoft च्या Copilot आणि Confusion द्वारे प्रदान केलेल्या 2,700 हून अधिक प्रतिसादांच्या अचूकतेचे मूल्यांकन केले गेले.

सुचलेल्या कथा

4 वस्तूंची यादीयादीचा शेवट

18 देश आणि 14 भाषांचे प्रतिनिधित्व करणाऱ्या 22 सार्वजनिक मीडिया आउटलेट्सने संशोधनासाठी मे अखेर आणि जूनच्या सुरुवातीदरम्यान AI सहाय्यकांना एक साधा प्रश्न विचारला.

एकूणच, 45 टक्के प्रतिसादांना किमान एक “महत्त्वपूर्ण” समस्या होती, अभ्यासानुसार.

सोर्सिंग ही सर्वात सामान्य समस्या होती, 31 टक्के प्रतिसाद उद्धृत स्त्रोतांद्वारे समर्थित नसलेली माहिती, किंवा चुकीची किंवा असत्यापित विशेषता, इतर समस्यांसह.

अचूकतेचा अभाव हा चुकीच्या उत्तरांसाठी पुढील सर्वात मोठा योगदानकर्ता होता, ज्याने 20 टक्के प्रतिसादांना प्रभावित केले, त्यानंतर 14 टक्के सह योग्य संदर्भाची अनुपस्थिती.

मिथुनला सर्वात लक्षणीय समस्या होत्या, प्रामुख्याने सोर्सिंगसह, 76 टक्के प्रतिसादांवर परिणाम झाला, अभ्यासानुसार.

अभ्यासानुसार, अभ्यास केलेल्या सर्व एआय मॉडेल्समध्ये मूलभूत माहितीच्या चुका झाल्या.

उद्धृत त्रुटींमध्ये झेक प्रजासत्ताकमध्ये सरोगसी बेकायदेशीर असल्याचा दावा करणारा पॅराप्लेक्सी आणि ChatGPT ने पोप फ्रान्सिस यांना त्यांच्या मृत्यूच्या काही महिन्यांनंतर बसलेले पोप म्हणून नाव दिले आहे.

OpenAI, Google, Microsoft आणि Perplexity यांनी टिप्पणीसाठी केलेल्या विनंत्यांना त्वरित प्रतिसाद दिला नाही.

अहवालाच्या अग्रलेखात, EBU चे डेप्युटी जनरल जीन-फिलिप डी टेंडर आणि बीबीसीचे एआयचे प्रमुख पीट आर्चर यांनी टेक कंपन्यांना त्यांच्या उत्पादनांमधील त्रुटी कमी करण्यासाठी अधिक प्रयत्न करण्याचे आवाहन केले.

“त्यांनी या समस्येला प्राधान्य दिलेले नाही आणि आता तसे करणे आवश्यक आहे,” डी टेंडर आणि आर्चर म्हणाले.

“त्यांना भाषा आणि बाजारपेठेद्वारे नियमितपणे त्यांचे निकाल जाहीर करून पारदर्शक असणे आवश्यक आहे.”

Source link