कृत्रिम बुद्धिमत्तेद्वारे व्युत्पन्न केलेले व्हिडिओ हे सर्वत्र आहे, सेलिब्रिटी डीपफेक्स आणि बनावट आपत्ती प्रसारणापासून ते ट्रॅम्पोलिनवरील सशांचे व्हायरल व्हिडिओंपर्यंत. सोरा, ChatGPT ची मूळ कंपनी OpenAI मधील AI व्हिडिओ जनरेटर, कल्पनेतून तथ्य वेगळे करणे कठीण झाले आहे. आणि सोरा मॉडेल 2a सर्व-नवीन सोशल मीडिया ॲपदिवसेंदिवस अधिक क्लिष्ट होत आहे.
गेल्या काही महिन्यांत, TikTok सारखे ॲप व्हायरल झाले आहे, AI उत्साही लोकांनी आमंत्रण कोड शोधण्याचा निर्णय घेतला आहे. पण सोरा इतर सोशल मीडिया प्लॅटफॉर्मप्रमाणे नाही. तुम्ही सोरा वर जे काही पाहता ते खोटे आहे आणि सर्व व्हिडिओ AI ने तयार केले आहेत. मी असे वर्णन केले एआय डीपफेक तापाचे स्वप्नपहिल्या दृष्टीक्षेपात निरुपद्रवी, पृष्ठभागाखाली गंभीर धोके लपलेले आहेत.
आमची कोणतीही निष्पक्ष तांत्रिक सामग्री आणि प्रयोगशाळेची पुनरावलोकने चुकवू नका. तुमचा पसंतीचा Google स्रोत म्हणून CNET जोडा.
तांत्रिकदृष्ट्या, सोराचे व्हिडिओ सारख्या स्पर्धकांच्या तुलनेत प्रभावी आहेत मिड-फ्लाइट V1 आणि Google मी पाहतो 3. त्यांच्याकडे उच्च सुस्पष्टता, समक्रमित आवाज आणि आश्चर्यकारक सर्जनशीलता आहे. Sora चे सर्वात लोकप्रिय वैशिष्ट्य, ज्याला “cameo” म्हणतात, ते तुम्हाला इतर लोकांचे फोटो वापरू देते आणि ते जवळजवळ कोणत्याही AI-व्युत्पन्न दृश्यामध्ये घालू देते. हे एक प्रभावी साधन आहे, जे अत्यंत वास्तववादी व्हिडिओ तयार करते.
म्हणूनच अनेक तज्ञ सोराबद्दल चिंतित आहेत. ॲप कोणालाही धोकादायक बनावट तयार करणे, चुकीची माहिती पसरवणे आणि खरे काय आणि काय नाही यामधील रेषा अस्पष्ट करते. सार्वजनिक व्यक्ती आणि सेलिब्रिटी या डीपफेक आणि तत्सम सिंडिकेशनसाठी विशेषतः असुरक्षित आहेत SAG-AFTRA ने आपले रेलिंग मजबूत करण्यासाठी OpenAI ला पुढे ढकलले आहे.
AI सामग्री परिभाषित करणे हे तंत्रज्ञान कंपन्या, सोशल मीडिया प्लॅटफॉर्म आणि इतर प्रत्येकासाठी सतत आव्हान आहे. पण ते पूर्णपणे हताश नाही. सोरा सोबत व्हिडिओ तयार केला गेला आहे की नाही हे निर्धारित करण्यासाठी येथे काही गोष्टी आहेत.
सोरा वॉटरमार्क पहा
सोरा iOS ॲपवर तयार केलेल्या प्रत्येक व्हिडिओमध्ये डाउनलोड केल्यावर वॉटरमार्कचा समावेश होतो. हा पांढरा सोरा लोगो आहे – क्लाउड आयकॉन – जो व्हिडिओच्या कडाभोवती फिरतो. हे TikTok व्हिडिओ ज्या प्रकारे वॉटरमार्क केले जाते त्याप्रमाणेच आहे.
वॉटरमार्किंग सामग्री हा AI कंपन्या आम्हाला AI-व्युत्पन्न सामग्री दृष्यदृष्ट्या शोधण्यात मदत करू शकतात अशा सर्वात मोठ्या मार्गांपैकी एक आहे. उदाहरणार्थ, Google चे जेमिनी मॉडेल “nanobanban” आपोआप त्याचे फोटो वॉटरमार्क करते. वॉटरमार्क उत्कृष्ट आहेत कारण ते स्पष्ट चिन्ह म्हणून काम करतात की सामग्री कृत्रिम बुद्धिमत्तेच्या मदतीने तयार केली गेली आहे.
पण वॉटरमार्क परिपूर्ण नाहीत. प्रथम, जर वॉटरमार्क स्थिर असेल (हलवत नसेल), तर तो सहजपणे क्रॉप केला जाऊ शकतो. Sora’s सारखे वॉटरमार्क हस्तांतरित करण्यासाठी देखील, त्यांना काढून टाकण्यासाठी विशेषतः डिझाइन केलेले ॲप्स आहेत, त्यामुळे केवळ वॉटरमार्कवर पूर्णपणे विश्वास ठेवला जाऊ शकत नाही. याविषयी ओपनएआयचे सीईओ सॅम ऑल्टमन यांना विचारले असता ते म्हणाले की, समाजाला अशा जगाशी जुळवून घ्यावे लागेल जेथे कोणीही कोणाचेही बनावट व्हिडिओ बनवू शकेल. अर्थात, ओपनएआयच्या सोरापूर्वी, हे व्हिडिओ तयार करण्याचा कोणताही लोकप्रिय, प्रवेश करण्यायोग्य, कौशल्य-मुक्त मार्ग नव्हता. परंतु त्याचा युक्तिवाद प्रमाणीकरणासाठी इतर पद्धतींवर अवलंबून राहण्याच्या गरजेबद्दल एक वैध मुद्दा उपस्थित करतो.
मेटाडेटा तपासा
मला माहित आहे की तुम्ही कदाचित असा विचार करत आहात की व्हिडिओ वास्तविक आहे की नाही हे निर्धारित करण्यासाठी तुम्ही त्याचा मेटाडेटा तपासू शकत नाही. तुम्ही कुठून येत आहात हे मला समजते; ही एक अतिरिक्त पायरी आहे आणि कोठून सुरुवात करावी हे कदाचित तुम्हाला माहीत नसेल. परंतु सोरा सोबत व्हिडिओ तयार केला गेला आहे किंवा नाही हे निर्धारित करण्याचा हा एक उत्तम मार्ग आहे आणि तुम्हाला वाटते त्यापेक्षा ते करणे सोपे आहे.
मेटाडेटा हा माहितीचा एक संच आहे जो सामग्री तयार केल्यावर आपोआप संलग्न केला जातो. हे तुम्हाला फोटो किंवा व्हिडिओ कसा तयार करायचा याबद्दल अधिक ज्ञान देते. यामध्ये फोटो घेण्यासाठी वापरल्या जाणाऱ्या कॅमेऱ्याचा प्रकार, स्थान, व्हिडिओ काढण्याची तारीख आणि वेळ आणि फाइलचे नाव समाविष्ट असू शकते. प्रत्येक फोटो किंवा व्हिडिओमध्ये मेटाडेटा असतो, मग तो मानवनिर्मित असो किंवा AI-निर्मित असो. AI-व्युत्पन्न केलेल्या बऱ्याच सामग्रीमध्ये सामग्री क्रेडेन्शियल्स असतील जी AI उत्पत्तीकडे देखील सूचित करतात.
OpenAI हा सामग्री स्रोत आणि प्रमाणिकतेसाठी अलायन्सचा एक भाग आहे, ज्याचा अर्थ तुमच्यासाठी सोरा व्हिडिओंमध्ये C2PA मेटाडेटा समाविष्ट आहे. व्हिडिओ, प्रतिमा किंवा दस्तऐवजाचा मेटाडेटा सत्यापित करण्यासाठी तुम्ही सामग्री प्रमाणीकरण पुढाकाराचे सत्यापन साधन वापरू शकता. कसे ते येथे आहे. (सामग्री प्रामाणिकपणा पुढाकार C2PA चा भाग आहे.)
इमेज, व्हिडिओ किंवा डॉक्युमेंटचा मेटाडेटा कसा तपासायचा:
१. या URL वर जा: https://verify.contentauthenticity.org/
2. तुम्हाला तपासायची असलेली फाइल अपलोड करा.
3. उघडा क्लिक करा.
4. उजव्या पॅनेलमधील माहिती तपासा. AI द्वारे व्युत्पन्न केले असल्यास, हे सामग्री सारांश विभागात समाविष्ट केले जावे.
जेव्हा तुम्ही या टूलद्वारे सोरा व्हिडिओ प्ले कराल, तेव्हा तो व्हिडिओ “OpenAI द्वारे रिलीझ केलेला” असल्याचे दर्शवेल आणि तो AI द्वारे तयार करण्यात आला आहे हे समाविष्ट करेल. सर्व सोरा व्हिडिओंमध्ये ही क्रेडेन्शियल्स असणे आवश्यक आहे जे तुम्हाला ते Sora ने तयार केले असल्याची पुष्टी करू देतात.
हे साधन, सर्व AI डिटेक्टरप्रमाणे, परिपूर्ण नाही. असे अनेक मार्ग आहेत ज्याद्वारे AI व्हिडिओ शोधणे टाळू शकतात. तुमच्याकडे Sora व्यतिरिक्त इतर व्हिडिओ असल्यास, ते AI द्वारे व्युत्पन्न केले गेले आहेत की नाही हे निर्धारित करण्यासाठी साधनासाठी मेटाडेटामध्ये आवश्यक ध्वज नसू शकतात. उदाहरणार्थ, मी माझ्या चाचणीमध्ये पुष्टी केल्याप्रमाणे, मिडजर्नीसह तयार केलेले AI व्हिडिओ ध्वजांकित केलेले नाहीत. जरी व्हिडिओ Sora द्वारे तयार केला गेला असेल, परंतु नंतर तृतीय-पक्ष ॲपद्वारे प्ले केला गेला असेल (जसे की वॉटरमार्क रिमूव्हल ॲप) आणि पुन्हा डाउनलोड केला गेला असेल, त्यामुळे टूल त्याला AI म्हणून ओळखेल अशी शक्यता नाही.
कंटेंट ऑथेंटिकेशन इनिशिएटिव्हच्या पडताळणी टूलने योग्यरित्या ओळखले आहे की तुम्ही सोरा सोबत तयार केलेला व्हिडिओ AI द्वारे तयार केला होता, तसेच तुम्ही तो तयार केल्याची तारीख आणि वेळेसह.
इतर AI वर्गीकरण शोधा आणि तुमचा स्वतःचा समावेश करा
तुम्ही मेटाच्या सोशल मीडिया प्लॅटफॉर्मपैकी एक वापरत असल्यास, Instagram किंवा Facebook सारखे, काहीतरी AI-आधारित आहे की नाही हे ठरवण्यासाठी तुम्हाला थोडी मदत मिळेल. मेटामध्ये एआय सामग्री ओळखण्यात आणि त्याचे वर्गीकरण करण्यात मदत करण्यासाठी अंतर्गत प्रणाली आहेत. या प्रणाली परिपूर्ण नाहीत, परंतु आपण ध्वजांकित पोस्टचे रेटिंग स्पष्टपणे पाहू शकता. TikTok आणि YouTube मध्ये समान AI सामग्री वर्गीकरण धोरणे आहेत.
एआय द्वारे एखादी गोष्ट तयार केली गेली आहे की नाही हे जाणून घेण्याचा एकमेव विश्वसनीय मार्ग म्हणजे निर्मात्याने ते प्रकट करणे. अनेक सोशल मीडिया प्लॅटफॉर्म आता सेटिंग्ज ऑफर करतात जे वापरकर्त्यांना त्यांच्या पोस्टला आर्टिफिशियल इंटेलिजन्सद्वारे व्युत्पन्न केल्याप्रमाणे लेबल करण्याची परवानगी देतात. तुमच्या मथळ्यामध्ये एक साधे श्रेय किंवा प्रकटीकरण देखील तुम्ही काहीतरी कसे तयार केले हे समजण्यासाठी सर्वांना मदत करण्यासाठी खूप मदत करू शकते.
सोरा पास होताच तुम्हाला माहीत आहे की काहीही खरे नाही. पण एकदा तुम्ही ॲप सोडले आणि AI-जनरेट केलेले व्हिडिओ शेअर केले की, व्हिडिओ कसा तयार केला गेला हे उघड करणे ही आमची सामूहिक जबाबदारी आहे. Sora सारखे AI मॉडेल्स वास्तव आणि AI मधील रेषा अस्पष्ट करत असल्याने, एखादी गोष्ट वास्तविक किंवा AI आहे तेव्हा ते शक्य तितके स्पष्ट करणे आपल्या सर्वांवर अवलंबून आहे.
सर्वात महत्त्वाचे म्हणजे जागरुक रहा
व्हिडिओ खरा आहे की AI-चालित आहे हे एका दृष्टीक्षेपात अचूकपणे जाणून घेण्याचा कोणताही एकमेव मार्ग नाही. स्वत:ला फसवणूक होण्यापासून रोखण्यासाठी तुम्ही करू शकता सर्वोत्तम गोष्ट म्हणजे तुम्ही ऑनलाइन पाहता त्या प्रत्येक गोष्टीवर आपोआप आणि निर्विवादपणे विश्वास ठेवू नका. आपल्या आतड्याचे अनुसरण करा – जर काहीतरी अवास्तव वाटत असेल तर ते कदाचित आहे. या अभूतपूर्व AI ने भरलेल्या काळात, तुमचा सर्वोत्तम बचाव म्हणजे तुम्ही पाहत असलेल्या व्हिडिओंचे बारकाईने परीक्षण करणे. फक्त नजर टाकू नका आणि निर्विकारपणे स्क्रोल करू नका. विकृत मजकूर, गायब होणाऱ्या वस्तू आणि भौतिकशास्त्राला विरोध करणारे ॲनिमेशन पहा. तुमची वेळोवेळी फसवणूक झाली तर स्वतःला दोष देऊ नका; तज्ञ देखील चुका करतात.
(प्रकटीकरण: Ziff Davis, CNET ची मूळ कंपनी, ने एप्रिलमध्ये OpenAI विरुद्ध खटला दाखल केला, आरोप केला की त्यांनी AI सिस्टीमचे प्रशिक्षण आणि संचालन करताना Ziff Davis च्या कॉपीराइटचे उल्लंघन केले आहे.)
















