उद्योगातील अग्रगण्य कृत्रिम बुद्धिमत्ता कव्हर करण्यासाठी नवीनतम अद्यतने आणि विशेष सामग्री मिळविण्यासाठी दररोज आणि साप्ताहिक वृत्तपत्रांमध्ये सामील व्हा. अधिक जाणून घ्या
नवीन शैक्षणिक अभ्यास मोठ्या एलएलएमएस मॉडेल्सच्या विकासामध्ये मूलभूत धारणाला आव्हान देते आणि चेतावणी देते की अधिक प्री -ट्रेडिंग डेटा नेहमीच चांगल्या मॉडेल्सला कारणीभूत ठरू शकत नाही.
पश्चिमेकडील संगणक विज्ञानातील काही अग्रगण्य संस्थांचे संशोधक आणि जगातील कार्नेगी मेलॉन, स्टॅनफोर्ड युनिव्हर्सिटी, हार्वर्ड युनिव्हर्सिटी आणि प्रिन्स्टन विद्यापीठात “अत्यधिक आपत्तीजनक प्रशिक्षण” या संकल्पनेसह, प्रशिक्षणापूर्वी विस्तारित प्रशिक्षण शेवटी भाष्य करणे अधिक कठीण बनवू शकते.
अभ्यास, हक्क “अत्यधिक भाषेचे मॉडेल समायोजित करणे कठीण आहे”आर्क्सिव्ह जेकब मिशेल स्प्रिंगर यांनी उपलब्ध आहे, तसेच साशिन जॉयल, कैवी वेन, टॅनिक कुमार, शियांग यू, सदिका मलादी, ग्रॅहम न्यूबीग आणि एडी रॅगनथन सहभागी लेखकांसह.
रिटर्न्स रिटर्न्स कायदा
आधुनिक एलएलएमच्या विकासामध्ये अचानक झालेल्या ट्रेंडवर या संशोधनात लक्ष केंद्रित केले आहे: मॉडेल्स सतत डेटा पूल-परवानाधारक किंवा वेबवरून विखुरलेल्या विस्तारित करण्यावर पूर्व-प्रशिक्षित असतात, एलएलएमला विशिष्ट प्रतीकांची मालिका म्हणून प्रतिनिधित्व करतात किंवा या संकल्पनांचे डिजिटल प्रतिनिधित्व आणि कल्पनांच्या भिन्नतेची संख्या वाढविण्याच्या दृष्टीने या सराव करतात.
अनुकूलतेच्या क्षमतेपूर्वी वाढविण्याच्या प्रशिक्षणाच्या परिणामाचा अभ्यास करण्यासाठी पथकाने प्रयोगात्मक मूल्यांकन आणि सैद्धांतिक विश्लेषणाची एक मालिका आयोजित केली.
मुख्य निकालांपैकी एक एआय 2 एआय 2 वर लक्ष केंद्रित करते.
संशोधकांनी या फॉर्मच्या दोन प्रतींची तुलना केली: त्यातील एक पूर्वी 2.3 ट्रिलियन प्रतीकांवर आणि दुसर्या 3 ट्रिलियन प्रतीकांवर प्रशिक्षण दिले गेले होते.
इतर डेटावरील नंतरचे प्रशिक्षण 30 %ने असले तरी, सूचना सेट केल्यानंतर शेवटचे मॉडेल अधिक वाईट होते. विशेषतः, 3 टी-टेक केलेल्या मॉडेलने त्याच्या 2.3-टन भागांच्या तुलनेत मानक भाषेच्या मॉडेलच्या अनेक मानकांवर 2 % पेक्षा जास्त वाईट दर्शविले. काही मूल्यांकनांमध्ये, कामगिरीतील बिघाड 3 %पर्यंत पोहोचला.
संशोधकांचा असा युक्तिवाद आहे की ही घट एक समलैंगिक नाही तर “अत्यधिक आपत्तीजनक प्रशिक्षण” डिझाइन करणारी सुसंगत घटना आहे.
Gies लर्जी समजून घेणे आणि विसरणे
पेपर या विघटनाचे श्रेय त्यांना “हळूहळू संवेदनशीलता” म्हणतात त्यातील पद्धतशीर वाढीस कारणीभूत ठरते. मॉडेल्स विस्तारित प्रशिक्षणाच्या अधीन असल्याने त्यांचे पॅरामीटर्स बदलांसाठी अधिक संवेदनशील बनतात.
या वाढीव नाजूकपणामुळे प्रशिक्षणानंतर समायोजन दरम्यान ते बिघडण्याची शक्यता अधिक आहे, जसे की सूचना निश्चित करणे, मल्टीमीडिया कार्ये समायोजित करणे किंवा अगदी किरकोळ वजन विकार.
संशोधक पुरावा प्रदान करतात की, एका विशिष्ट प्रशिक्षणासह, म्हणजेच, सुधारित-ते आयोजित केले गेले आहे जसे की अचूक किंवा असंघटित स्थापना जसे की लबाडीच्या आवाजाची भर घालणे-प्री-शिकलेल्या क्षमतेपेक्षा जास्त नुकसान केले आहे.
नवीन प्रशिक्षण डेटासह मॉडेलची मूळ सामर्थ्य बिघडल्यामुळे या संवेदनशीलतेमुळे “विसरणे” होते.
अभ्यासानुसार प्री -ट्रीनिंगमध्ये “टर्निंग पॉईंट” निश्चित केला जातो, ज्यानंतर अतिरिक्त प्रशिक्षण जेव्हा अचूक परिणाम येते तेव्हा नकारात्मक आणि अगदी नकारात्मक परतावा कमी होते. ओल्मो -1 बी मॉडेलसाठी, हा उंबरठा सुमारे 2.5 ट्रिलियन प्रतीक दिसला.
पुरावा संपत्ती
कार्यसंघाचे विश्लेषण वास्तविक जगातील आणि नियंत्रणामधील दोन्ही प्रयोगात्मक सेटिंग्जपर्यंत विस्तारित आहे. त्यांनी एचएच एचएच आणि तुलू सारख्या डेटा गटांचा वापर करून सूचना सेट करणे तसेच एलएलएएए फ्रेमचा वापर करून मल्टीमर परिष्कृत करणे यासह विविध कार्यांद्वारे इंद्रियगोचरची चाचणी केली आहे.
परिणामांनी सतत दर्शविले की पूर्व -प्रशिक्षित मॉडेल काही प्रतीकात्मक बजेटपेक्षा जास्त आहेत जे त्यांना ताब्यात घेतल्यानंतर कामगिरीपेक्षा कमी होते.
शिवाय, अत्यधिक प्रशिक्षणाचे सर्वोत्तम कारण समजण्यासाठी संशोधकांनी रेखीय नेटवर्कचा वापर करून एक सैद्धांतिक मॉडेल तयार केले.
त्यांच्या विश्लेषणाने पुष्टी केली की पुरोगामी संवेदनशीलता आणि आपत्तीजनक अभ्यास स्पोर्टिंग दृष्टिकोनात अपरिहार्य आहे जेव्हा योग्य निर्बंध न घेता पूर्वीचे प्रशिक्षण अनिश्चित काळासाठी चालू राहते.
अंतिम रेडी -मेड जेवण? सेवा प्रदाता आणि प्रशिक्षकांनी भिन्नता केली पाहिजे
विस्तृत धारणा परिणाम आव्हान देतात की अधिक प्री -ट्रेडिंग डेटा नेहमीच चांगला असतो. त्याऐवजी, पेपर एक तंतोतंत तुलना सुचवितो: जरी प्रशिक्षणापूर्वी दीर्घ प्रशिक्षण मूलभूत मॉडेलची क्षमता सुधारते, परंतु त्याचे नियंत्रण बिघडेल या जोखमीस देखील वाढते.
सराव मध्ये, अचूक शिक्षण दर नियंत्रित करणे किंवा नियमन जोडणे हे आपत्तीजनक प्रशिक्षणाचा उदय होण्यास विलंब करणे म्हणून हा परिणाम कमी करण्याचा प्रयत्न करतो परंतु मोहिमेच्या शक्तीचा त्याग केल्याशिवाय पूर्णपणे काढून टाकता येत नाही.
परिणामी, वर्कफ्लो आणि व्यावसायिक परिणाम सुधारण्यासाठी एलएलएमचा फायदा घेण्याच्या प्रतीक्षेत असलेल्या संस्थांसाठी, जर असे करण्याच्या कल्पनांपैकी एक म्हणजे मुक्त स्त्रोत मॉडेल सेट करणे, या संशोधनाचा धडा सूचित करतो की कमी सामग्रीवर प्रशिक्षण घेतलेल्या कमी पॅरामीटर्सचे मॉडेल अधिक विश्वासार्ह उत्पादन मॉडेलपर्यंत पोहोचण्याची शक्यता आहे.
लेखक कबूल करतात की अत्यधिक आपत्तीजनक प्रशिक्षण केव्हा आणि कसे होते यावर परिणाम करणारे घटक समजून घेण्यासाठी अधिक संशोधन आवश्यक आहे. खुल्या प्रश्नांमध्ये प्रशिक्षण सुधारणे, प्रशिक्षण लक्ष्य किंवा डेटा वितरण या घटनेच्या तीव्रतेवर परिणाम करू शकते की नाही.
भविष्यात एलएलएम आणि एआय मॉडेलच्या विकासाचे परिणाम
संस्था आणि संशोधक कसे डिझाइन केले आहेत आणि मोठ्या भाषेचे मॉडेल प्रशिक्षण घेत आहेत यावर या अभ्यासाचा चांगला परिणाम आहे. या क्षेत्राने मोठ्या आणि अधिक सक्षम मॉडेल्सचा पाठपुरावा सुरू ठेवला आहे, हे संशोधन प्रशिक्षणानंतर अनुकूलतेच्या क्षमतेसह प्रशिक्षण घेण्यापूर्वी प्रशिक्षण कालावधीचे संतुलन ठेवण्याचे महत्त्व अधोरेखित करते.
याव्यतिरिक्त, मॉडेल विकसक संसाधनांच्या सानुकूलित करण्याबद्दल कसे विचार करतात यावर परिणाम परिणाम करू शकतात. प्री -ट्रेडिंग बजेटमध्ये केवळ लक्ष केंद्रित करण्याऐवजी, विकसकांना आपत्तीजनक अत्यधिक प्रशिक्षणाचे नकारात्मक प्रभाव न घेता मोहित कामगिरी सुधारण्यासाठी रणनीतींचे पुन्हा मूल्यांकन करण्याची आवश्यकता असू शकते.
Source link