कृत्रिम बुद्धिमत्तेचा वापर – सौम्य आणि प्रतिकूल – ब्रेक वेगाने वाढतात, संभाव्य हानिकारक प्रतिक्रियांच्या अधिक घटना उघडकीस येत आहेत.
पिक्सलक्स | ई+ | गेटी प्रतिमा
कृत्रिम बुद्धिमत्तेचा वापर – सौम्य आणि प्रतिकूल – ब्रेक वेगाने वाढतात, संभाव्य हानिकारक प्रतिक्रियांच्या अधिक घटना उघडकीस येत आहेत. यामध्ये घृणास्पद भाषण, कॉपीराइट उल्लंघन किंवा लैंगिक सामग्रीचा समावेश आहे.
संशोधकांनी सीएनबीसीला सांगितले की या अवांछित वर्तनाचा उदय एआय मॉडेल्सच्या नियमांच्या अभावामुळे आणि अपुरी परीक्षांमुळे अधिक क्लिष्ट आहे.
एआय संशोधक जेव्हियर रॅन्डो म्हणतात की मशीन लर्निंग मॉडेल्स देखील ते करण्याची इच्छा करतात म्हणून वागण्याची एक लांबलचक ऑर्डर देखील आहे.
“उत्तर, सुमारे १ years वर्षांच्या संशोधनानंतर, नाही, नाही, हे कसे करावे हे आम्हाला माहित नाही आणि आम्ही बरे होत असल्याचे दिसत नाही,” असे प्रतिकूल मशीन लर्निंगवर लक्ष केंद्रित करणारे रॅन्डो यांनी सीएनबीसीला सांगितले.
तथापि, एआय मधील जोखमींचे मूल्यांकन करण्याचे काही मार्ग आहेत, जसे की रेड टेमिंग. सराव मध्ये कोणतेही संभाव्य नुकसान उघडकीस आणण्यासाठी आणि शोधण्यासाठी कृत्रिम बुद्धिमत्ता प्रणालींचा समावेश आहे आणि तपासत आहे – सायबरसेक्चर सर्कलमधील एक सामान्य मोडस ऑपरेंडी.
एआय आणि डेटा प्रोव्हान्सन्स इनिशिएटिव्हच्या नेतृत्वात संशोधक शेन लॉन्गप्रे यांनी सांगितले की सध्या रेड टीमवर अपुरे लोक काम करत आहेत.
लाँगपी आणि संशोधकांनी प्रकाशित केलेल्या अभ्यासानुसार, एआय स्टार्टअप्स आता त्यांच्या मॉडेल्सचा वापर दुसर्या पक्षांची चाचणी घेण्यासाठी प्रथम -पक्ष मूल्यांकन किंवा त्यांच्या मॉडेल्सची चाचणी घेण्यासाठी, सामान्य वापरकर्ते, संशोधक, संशोधक आणि नैतिक हॅकर्स यासारख्या तृतीय पक्षाची चाचणी अधिक पाहण्यास कारणीभूत ठरतील.
लॉन्गप्रे म्हणाले, “लोक आवश्यक वकील आहेत, वैद्यकीय डॉक्टरांची चाचणी घेण्याची गरज आहे, डॉक्टर डॉक्टर शोधत आहेत, जे विशेष तज्ञ आहेत, जे विशेष तज्ञ आहेत, ही त्रुटी आहे की नाही हे ठरवण्यासाठी, कारण सामान्य व्यक्ती पुरेशी कौशल्ये साध्य करू शकत नव्हती किंवा करू शकत नाही,” लाँगप्रे म्हणाले.
एआय सिस्टमवरील या ‘त्रुटी’ माहितीला प्रोत्साहन देण्यासाठी कागदावर, उत्साही आणि मानक ‘एआय त्रुटी’ च्या मार्गांवर प्रकाशित झालेल्या काही शिफारसी.
लाँगप्रे यांनी जोडले की ही प्रथा इतर क्षेत्रात यशस्वीरित्या स्वीकारली गेली, “आम्हाला आता एआयमध्ये त्याची गरज आहे.”
प्रशासन, धोरणे आणि इतर उपकरणांसह वापरकर्ता-केंद्रित सराव एआय उपकरणे आणि वापरकर्त्यांद्वारे प्राप्त झालेल्या जोखमीबद्दल अधिक चांगल्या प्रकारे समजून घेईल, असे रँडो म्हणाले.
यापुढे मुन्चॅट नाही
प्रकल्प ही एक प्रक्रिया आहे जी एक प्रक्रिया आहे, पॉलिसी सिस्टमसह तांत्रिक समाधानाचे संयोजन. सिंगापूरमधील इन्फोकॉम मीडिया डेव्हलपमेंट अथॉरिटीने सुरू केलेले, प्रकल्प मुनशॉट हे आयबीएम आणि बोस्टन-आधारित डेटाबोट सारख्या कला खेळाडूंसह विकसित केलेल्या उपकरणांचे मूल्यांकन करणारे एक मोठे भाषेचे मॉडेल आहे.
टूलकिट बेंचमार्किंग, लाल टॅमिंग आणि चाचणी बेसल्स समाकलित करते. आयबीएम एशिया पॅसिफिक क्लायंट अभियांत्रिकी प्रमुख अनुप कुमार यांनी सीएनबीसीला सांगितले की एआय स्टार्टअप्सला विश्वासार्ह आणि वापरकर्त्यांना हानी पोहोचविण्याची परवानगी देणारी एक मूल्यांकन प्रणाली देखील आहे.
मूल्यांकन ही एक अखंड प्रक्रिया आहे ज्यामध्ये मॉडेलचे अनुसरण केले पाहिजे आणि त्याचे अनुसरण केले पाहिजे, कुमार म्हणाले, ज्यांनी नमूद केले की टूलकिटची प्रतिक्रिया मिसळली गेली.
“बर्याच स्टार्टअप्सने ते एक व्यासपीठ म्हणून घेतले कारण ते एक मुक्त स्त्रोत होते आणि त्यांनी ते मिळविणे सुरू केले. परंतु मला वाटते की आपल्याला माहित आहे, आम्ही बरेच काही करू शकतो.”
पुढे जाऊन, मुनशॉट या प्रकल्पाचे उद्दीष्ट म्हणजे विशिष्ट औद्योगिक वापराच्या दृष्टीने सानुकूलन समाविष्ट करणे आणि बहुभाषिक आणि बहुभाषिक लाल रंगाचे टॅमिंग सक्षम करणे.
उच्च मूल्य
आशिया-पॅसिफिक प्रोफेसर पियरे अल्किया यांनी म्हटले आहे की तंत्रज्ञान कंपन्या सध्या योग्य मूल्यांकन केल्याशिवाय त्यांचे नवीनतम एआय मॉडेल प्रकाशित करण्यासाठी गर्दी करीत आहेत.
“जेव्हा एखादी फार्मास्युटिकल कंपनी नवीन औषधाची रचना करते तेव्हा त्यांना काही महिन्यांची चाचणी आवश्यक असते आणि त्यांना मान्यता देण्यापूर्वी ते प्रभावी आणि हानिकारक नसतात याचा अत्यंत गंभीर पुरावा आवश्यक असतो,” असे त्यांनी नमूद केले की विमान क्षेत्रातही अशीच प्रक्रिया आहे.
एआय मॉडेल्सना मंजुरीपूर्वी अटींचा कठोर सेट भरावा लागतो, अल्किया जोडून. अधिक विशिष्ट कार्यांसाठी डिझाइन केलेले ब्रॉड त्यांचे गैरवर्तन आणि नियंत्रण करण्यासाठी एआय उपकरणांमधून त्यांचा गैरवापर विकसित करेल, असे अल्किया म्हणतात.
ते म्हणाले, “एलएलएम बरेच काही करू शकते, परंतु त्यांना पुरेसे विशिष्ट कामांमध्ये ते लक्षात येऊ शकत नाहीत,” तो म्हणाला. परिणामी, “विकसकांच्या बाजूने सर्वांच्या अपेक्षेने संभाव्य अत्याचाराची संख्या खूप मोठी आहे” “
रॅन्डोचा सहभाग असलेल्या एका अभ्यासानुसार, ही ब्रॉड मॉडेल्स सुरक्षित आणि सुरक्षित म्हणून ओळखल्या जाणार्या परिभाषित करतात.
तंत्रज्ञान कंपन्या “त्यांचे बचाव त्यांच्यापेक्षा चांगले आहेत,” रॅन्डो म्हणाले की, ओव्हरक्लेमिंग टाळले पाहिजे.
















