एंटरप्राइझ सुरक्षा संघ AI-शक्तीच्या हल्ल्यांपुढे ग्राउंड गमावत आहेत, संरक्षण कमकुवत आहे म्हणून नाही, तर धोक्याचे मॉडेल बदलले आहे म्हणून. जसजसे AI एजंट उत्पादनात जातात, आक्रमणकर्ते रनटाइम असुरक्षिततेचे शोषण करत आहेत जेथे तडजोड करण्याची वेळ सेकंदात मोजली जाते, पॅच विंडो तासांमध्ये मोजल्या जातात आणि पारंपारिक सुरक्षिततेमध्ये दृश्यमानता किंवा नियंत्रण कमी असते.

CrowdStrike चा 2025 ग्लोबल थ्रेट रिपोर्ट दस्तऐवज 51 सेकंद इतक्या वेगाने तडजोड करते. बहुतेक सुरक्षा संघांना पहिला इशारा मिळण्यापूर्वी हल्लेखोर प्रारंभिक प्रवेशापासून बाजूकडील हालचालीपर्यंत जातात. त्याच अहवालात असे आढळून आले की 79% शोध मालवेअर-मुक्त होते, विरोधक हँड-ऑन कीबोर्ड तंत्रे वापरतात जे पारंपारिक एंडपॉइंट संरक्षणास पूर्णपणे बायपास करतात.

CISO चे अंतिम आव्हान ७२ तासांच्या आत रिव्हर्स इंजिनीअरिंग नाही

माईक रेमर, इवंतीचे फील्ड चीफ इन्फॉर्मेशन सिक्युरिटी ऑफिसर, यांनी पॅच रिलीझ आणि वेपनायझेशन दरम्यान AI खिडकी कोसळताना पाहिले आहे.

"धमकी देणारे अभियंता 72 तासात उलटले," “ही एक मोठी समस्या आहे,” रेमरने व्हेंचरबीटला सांगितले. "जर ग्राहकाने 72 तासांच्या आत पॅच केले नाही तर ते शोषणास असुरक्षित आहेत. कृत्रिम बुद्धिमत्तेद्वारे वेग मोठ्या प्रमाणात सुधारला आहे."

बऱ्याच संस्थांना मॅन्युअली पॅच करण्यासाठी आठवडे किंवा महिने लागतात, बहुतेकदा अग्निशमन आणि इतर तातडीच्या प्राधान्यांना प्राधान्य देतात.

रनटाइममध्ये पारंपारिक सुरक्षा अयशस्वी का होते

SQL इंजेक्शनमध्ये सहसा ओळखण्यायोग्य स्वाक्षरी असते. सुरक्षा संघ त्यांच्या ट्रेडिंग पद्धतीत सुधारणा करत आहेत आणि बरेच जण त्यांना जवळपास शून्य चुकीच्या सकारात्मकतेसह अवरोधित करत आहेत. पण "मागील सूचनांकडे दुर्लक्ष करा" हे ज्ञात मालवेअरसह काहीही सामायिक करत नसताना बफर क्षमतेच्या समतुल्य संभाव्य पेलोड धारण करते. हल्ला सिमेंटिक आहे, सिंटॅक्टिक नाही. झटपट इंजेक्शन्स प्रतिद्वंद्वी व्यावसायिक कौशल्ये घेऊन जातात आणि एआयला शस्त्रास्त्र बनवतात जे इंजेक्शनच्या प्रयत्नांना मुखवटा घालणाऱ्या शब्दार्थांद्वारे धोक्याच्या नवीन स्तरावर पोहोचतात.

गार्टनरचे संशोधन हे स्पष्टपणे मांडते: "सुरक्षिततेची पर्वा न करता कंपन्या जनरेटिव्ह एआय स्वीकारतील." कंपनीला असे आढळले की 89% व्यवसाय तंत्रज्ञ व्यावसायिक उद्दिष्ट साध्य करण्यासाठी सायबर सुरक्षा मार्गदर्शक तत्त्वांच्या पलीकडे जातील. शॅडो एआय हा धोका नाही, ही एक निश्चितता आहे.

"धमकी देणाऱ्या कलाकारांनी आक्रमणाचे साधन म्हणून AI चा वापर वाढविला आहे आणि ते अजूनही बचावकर्ते म्हणून आमच्या पुढे आहेत." “ही एक मोठी समस्या आहे,” रेमरने व्हेंचरबीटला सांगितले. "एआय वापरणे सुरू करण्यासाठी आम्हाला वकील म्हणून बँडवॅगनवर उडी मारण्याची आवश्यकता आहे; केवळ डीपफेक शोधण्यातच नाही तर ओळख व्यवस्थापनात देखील. माझ्याकडे जे येत आहे ते खरे आहे की नाही हे निर्धारित करण्यासाठी मी AI कसे वापरू शकतो?"

कार्टर रीस, प्रतिष्ठेतील AI चे उपाध्यक्ष, तंत्रज्ञानातील अंतर ओळखतात: "रन-टाइम एआय मॉडेलला लक्ष्य करणाऱ्या हल्ल्यांच्या यादृच्छिक आणि अर्थपूर्ण स्वरूपाच्या विरूद्ध निर्धारवादी नियम आणि स्थिर स्वाक्षरींवर आधारित संरक्षण-सखोल धोरणे मूलभूतपणे अपुरी आहेत."

11 आक्रमण वेक्टर जे सर्व पारंपारिक सुरक्षा नियंत्रणांना बायपास करतात

LLM ऍप्लिकेशन्स 2025 साठी OWASP टॉप 10 तात्काळ इंजेक्शनला #1 वर स्थान देते. परंतु हे 11 घटकांपैकी एक आहे जे सुरक्षा नेत्यांनी आणि एआय बिल्डर्सने संबोधित केले पाहिजे. प्रत्येकाला हल्ल्याची यंत्रणा आणि बचावात्मक प्रतिकाराची समज असणे आवश्यक आहे.

1. थेट तात्काळ इंजेक्शन: सूचनांचे पालन करण्यासाठी प्रशिक्षित मॉडेल्स सुरक्षा प्रशिक्षणापेक्षा वापरकर्त्याच्या आदेशांना प्राधान्य देतील. पिलर सिक्युरिटीच्या स्टेट ऑफ GenAI हल्ल्यांच्या अहवालात असे आढळून आले आहे की 20% जेलब्रेक सरासरी 42 सेकंदात यशस्वी होतात, 90% यशस्वी हल्ले संवेदनशील डेटा लीक करतात.

संरक्षण: हेतू वर्गीकरण जे दावे फॉर्मवर पोहोचण्यापूर्वी जेलब्रेक पॅटर्न ओळखतात, तसेच आउटपुट फिल्टरिंग जे यशस्वी बायपास शोधते.

2. छद्म हल्ले: सौम्य संभाषणांमध्ये दुर्भावनापूर्ण विनंत्या एम्बेड करून संदर्भित संकेतांचे पालन करण्याच्या मॉडेलच्या प्रवृत्तीचा हल्लेखोर शोषण करतात. पालो अल्टो युनिट ४२ "भ्रामक आनंद" संशोधनाने फक्त तीन परस्परसंवादी सत्रांमध्ये आठ वेगवेगळ्या मॉडेल्सवरील 8,000 चाचण्यांमध्ये 65% यश मिळवले.

संरक्षण: संदर्भ-जागरूक विश्लेषण संपूर्ण संभाषणातील एकत्रित हेतूचे मूल्यांकन करते, वैयक्तिक संदेशांचे नाही.

3. बहु-वळण ऊर्ध्वगामी हल्ले: प्रत्येक जंक्चरमध्ये भार वितरीत करणे जे एकटेपणात सौम्य दिसतात ते वेगळ्या संरक्षणास पराभूत करतात. स्वयंचलित क्रेसेंडोमेशन टूलने GPT-4 वर 98% आणि जेमिनी-प्रोवर 100% यश ​​मिळवले.

संरक्षण: केस संदर्भाचा मागोवा घ्या, संभाषणाचा इतिहास ठेवा आणि ध्वज वाढवण्याचे नमुने.

4. तात्काळ अप्रत्यक्ष इंजेक्शन (RAG विषबाधा): शून्य-क्लिक शोषण RAG संरचनांना लक्ष्य करते, एक आक्रमण धोरण जे थांबवणे विशेषतः कठीण आहे. PoisonedRAG ने लाखो दस्तऐवज असलेल्या डेटाबेसमध्ये फक्त पाच दुर्भावनापूर्ण स्क्रिप्ट इंजेक्ट करून हल्ल्यात 90% यश ​​मिळवले.

संरक्षण: प्राप्त केलेला डेटा निवडकांमध्ये एन्कॅप्स्युलेट करा, मॉडेलला सामग्रीला केवळ डेटा म्हणून हाताळण्याची सूचना द्या. संदर्भ विंडोमध्ये प्रवेश करण्यापूर्वी वेक्टर डेटाबेसच्या काही भागांमधून नियंत्रण टोकन काढून टाका.

5. जॅमिंग हल्ले: ASCII आर्ट, Base64, किंवा Unicode बायपास कीवर्ड फिल्टरसह एन्कोड केलेल्या दुर्भावनापूर्ण सूचना फॉर्म-व्याख्या करण्यायोग्य शिल्लक असताना. ArtPrompt संशोधनाने GPT-4, जेमिनी, क्लॉड आणि Llama2 मध्ये या प्रकारच्या हल्ल्याच्या घातकतेचे मूल्यांकन करण्यात 76.2% यश मिळविले.

संरक्षण: सामान्यीकरण स्तर सिमेंटिक विश्लेषणापूर्वी सर्व नॉन-स्टँडर्ड प्रेझेंटेशन प्लेन टेक्स्टमध्ये डीकोड करतात. हे एकल पाऊल बहुतेक क्रिप्टोग्राफिक हल्ले अवरोधित करते.

6. मॉडेल काढणे: पद्धतशीर API क्वेरी डिस्टिलेशनद्वारे खाजगी क्षमतांची पुनर्रचना करतात. लीचिंगच्या नमुना शोधाने ChatGPT-3.5-Turbo मधून 48-तास API खर्चामध्ये $50 मध्ये 73% समानता मिळविली.

संरक्षण: वर्तणूक फिंगरप्रिंटिंग, वितरण विश्लेषण पॅटर्न डिटेक्शन, रेट्रोएक्टिव्ह थेफ्ट वॉटरमार्किंग, रेट लिमिटिंग, आणि क्वेरी पॅटर्नचे विश्लेषण साध्या विनंती संख्येच्या पलीकडे.

7. संसाधन संपुष्टात येणे (स्पंज हल्ला). अनुकूल इनपुट स्विचच्या लक्षाच्या चतुर्भुज जटिलतेचा फायदा घेतात, ज्यामुळे अंदाजे अंदाजपत्रक संपुष्टात येते किंवा सेवेची अधोगती होते. स्पंज उदाहरणांवरील IEEE EuroS&P संशोधनाने भाषा मॉडेलमध्ये प्रतिसाद वेळेत 30× वाढ दर्शविली. एका हल्ल्याने Microsoft Azure Translator ला 1 मिलीसेकंद वरून 6 सेकंदांपर्यंत ढकलले. डिग्रेडेशन 6000×.

संरक्षण: प्रति-वापरकर्ता टोकन बजेटिंग, तात्काळ जटिलता विश्लेषण जे आवर्ती नमुने नाकारते आणि अर्थविषयक कॅशिंग जे अनुमान खर्च न घेता पुनरावृत्ती होणारे भारी दावे पूर्ण करते.

8. सिंथेटिक ओळख फसवणूक. किरकोळ आणि वित्तीय सेवांमधील सर्वात मोठ्या AI-व्युत्पन्न जोखमींपैकी एक म्हणजे AI-व्युत्पन्न केलेले व्यक्तिमत्व जे ओळख पडताळणीला बायपास करण्यासाठी वास्तविक आणि बनावट डेटा एकत्र करतात. सिंथेटिक आयडेंटिटी फ्रॉडवरील फेडरल रिझर्व्ह संशोधन असे दर्शविते की सिंथेटिक अर्जदारांपैकी 85-95% पारंपारिक फसवणूक मॉडेल टाळतात. 2024 च्या सिग्निकॅट अहवालात असे आढळून आले आहे की AI-आधारित फसवणूक आता आर्थिक क्षेत्रात आढळलेल्या सर्व फसवणुकीच्या प्रयत्नांपैकी 42.5% आहे.

संरक्षण: मल्टी-फॅक्टर पडताळणी ज्यामध्ये स्टॅटिक आयडेंटिटी ॲट्रिब्यूट्सच्या पलीकडे वर्तणूक सिग्नल, तसेच सिंथेटिक ओळख पॅटर्नवर प्रशिक्षित विसंगती शोध समाविष्ट आहे.

9. डीपफेक फसवणूक. एआय-व्युत्पन्न ऑडिओ आणि व्हिडिओ व्यवहारांना परवानगी देण्यासाठी अधिकारी तोतयागिरी करतात, अनेकदा संस्थांची फसवणूक करण्याचा प्रयत्न करतात. Onfido च्या 2024 आयडेंटिटी फ्रॉड रिपोर्टमध्ये 2023 मध्ये डीपफेकच्या प्रयत्नांमध्ये 3,000% वाढ झाल्याचे दस्तऐवजीकरण करण्यात आले आहे. CFO आणि त्याच्या सहकाऱ्यांची तोतयागिरी करणाऱ्या AI सहभागींसह एका व्हिडिओ कॉलवर अरुपने $25 दशलक्ष गमावले.

संरक्षण: उच्च-मूल्याच्या व्यवहारांसाठी आउट-ऑफ-बँड पडताळणी, व्हिडिओ प्रमाणीकरणासाठी लाइव्हनेस डिटेक्शन आणि स्पष्ट ज्येष्ठतेची पर्वा न करता दुय्यम पुष्टीकरण आवश्यक असलेली धोरणे.

10. निष्काळजी आंतरीकांकडून डेटा लीक. कर्मचारी मालकीची कागदपत्रे आणि धोरणात्मक कागदपत्रे सार्वजनिक LLM मध्ये पेस्ट करतात. सॅमसंग अभियंत्यांनी चॅटजीपीटी अनब्लॉक केल्याच्या काही आठवड्यांच्या आत, स्त्रोत कोड लीक करणे आणि तीन वेगवेगळ्या घटनांमध्ये अंतर्गत मीटिंग नोट्स हेच केले. गार्टनरचा अंदाज आहे की 2026 पर्यंतचे 80% अनधिकृत AI व्यवहार हे दुर्भावनापूर्ण हल्ल्यांऐवजी अंतर्गत धोरण उल्लंघनामुळे उद्भवतील.

संरक्षण: वैयक्तिकरित्या ओळखण्यायोग्य माहिती (PII) सुधारणे बाह्य मॉडेल्समध्ये प्रवेश करण्यापासून संवेदनशील डेटा प्रतिबंधित करताना AI साधनाचा सुरक्षित वापर सक्षम करते. कमीत कमी प्रतिकाराचा मार्ग सुरक्षित वापरा.

11. भ्रमांचा शोषण करणे. काउंटरफॅक्च्युअल उत्तेजित होणे मॉडेल्सला बनावटीशी सहमत होण्यास भाग पाडते, बनावट परिणाम वाढवते. LLM-आधारित एजंट्सवरील संशोधन दर्शविते की बहु-चरण प्रक्रियांद्वारे भ्रम जमा होतात आणि वाढतात. जेव्हा AI आउटपुट मानवी पुनरावलोकनाशिवाय स्वयंचलित वर्कफ्लोमध्ये फीड करतात तेव्हा हे धोकादायक बनते.

संरक्षण: ग्राउंडिंग मॉड्युल्स निष्ठा, तसेच स्कोअर कॉन्फिडन्स, प्रचार करण्यापूर्वी संभाव्य मतिभ्रम ध्वजांकित करण्यासाठी पुनर्प्राप्त केलेल्या संदर्भासह प्रतिसादांची तुलना करतात.

CISO ला आता काय करावे लागेल

गार्टनरने भाकीत केले आहे की 2028 पर्यंत 25% एंटरप्राइझ उल्लंघन AI एजंट्सच्या गैरवापरामुळे होईल. आता संरक्षण तयार करण्याची संधी आहे.

AWS चे मुख्य IT अधिकारी ख्रिस बेट्झ यांनी RSA 2024 मध्ये ते तयार केले: "जनरेटिव्ह एआय वापरण्याच्या घाईत कंपन्या ॲप्लिकेशन सुरक्षा विसरतात. ज्या ठिकाणी आपण असुरक्षा पाहतो ते प्रत्यक्षात अनुप्रयोग स्तर असतात. लोक उपाय शोधण्यासाठी धावतात आणि त्यांच्याकडून चुका होतात."

पाच प्रकाशन प्राधान्ये उदयास येतात:

  1. स्वयंचलित पॅच उपयोजन. 72-तास विंडोला क्लाउड व्यवस्थापनाशी जोडलेले स्वतंत्र पॅचिंग आवश्यक आहे.

  2. प्रथम सामान्यीकरण स्तर तैनात करा. डिकोड बेस64, ASCII आणि युनिकोड आर्ट सिमेंटिक विश्लेषणापूर्वी.

  3. राज्यपूर्ण संदर्भ ट्रॅकिंग लागू करा. मल्टी-टर्न एस्केलेशन हल्ले सिंगल रिक्वेस्ट चेकिंगला पराभूत करतात.

  4. RAG सूचना पदानुक्रम लागू करा. प्राप्त केलेला डेटा सीमांककांसह गुंडाळा, सामग्रीला केवळ डेटा मानून.

  5. दाव्यांमध्ये ओळख प्रकाशित करणे. परवाना संदर्भासाठी वापरकर्ता ओळख डेटा प्रविष्ट करा.

"जेव्हा तुम्ही तुमची सुरक्षा तुमच्या नेटवर्कच्या काठावर ठेवता, तेव्हा तुम्ही संपूर्ण जगाला आमंत्रित करता," रिमर म्हणाले. "जोपर्यंत ते काय आहे आणि कीबोर्डच्या दुसऱ्या बाजूला कोण आहे हे मला कळत नाही तोपर्यंत मी त्याच्याशी संपर्क साधणार नाही. हा शून्य आत्मविश्वास आहे; एक buzzword म्हणून नाही, पण एक व्यावहारिक तत्त्व म्हणून."

मायक्रोसॉफ्टच्या एक्सपोजरचा तीन वर्षांपासून शोध लागला नाही. सॅमसंग अनेक आठवड्यांपासून कोड लीक करत आहे. सीआयएसओसाठी प्रश्न हा नाही की त्यांनी अनुमानित सुरक्षा तैनात करावी की नाही, परंतु पुढील सावधगिरीची कथा बनण्यापूर्वी ते अंतर पूर्ण करू शकतात का.

Source link