स्प्लंक, सिस्को कंपनीने प्रदान केले
सैद्धांतिक वचनापासून ऑपरेशनल वास्तवाकडे AI वेगाने विकसित होत असताना, CIOs आणि IT व्यवस्थापकांना मूलभूत आव्हानाचा सामना करावा लागतो: मानवी देखरेख आणि सुरक्षिततेसाठी आवश्यक असलेली धोरणात्मक विचारसरणी राखून AI च्या परिवर्तनीय क्षमतेचा उपयोग कसा करायचा. एजंटिक एआयचा उदय सुरक्षा ऑपरेशन्सला आकार देत आहे, परंतु यशासाठी ऑटोमेशन आणि जबाबदारी संतुलित करणे आवश्यक आहे.
कार्यक्षमता विरोधाभास: तडजोड न करता ऑटोमेशन
AI स्वीकारण्याचा दबाव तीव्र आहे. संस्थांना हेडकाउंट कमी करण्यासाठी किंवा एआय-चालित उपक्रमांकडे संसाधने पुनर्निर्देशित करण्यासाठी दबाव आणला जात आहे, बहुतेकदा या परिवर्तनामध्ये काय समाविष्ट आहे हे पूर्णपणे समजून घेतल्याशिवाय. वचन आकर्षक आहे: AI तपास वेळ 60 मिनिटांवरून फक्त 5 मिनिटांपर्यंत कमी करू शकते, संभाव्यत: सुरक्षा विश्लेषकांसाठी 10 च्या घटकाने उत्पादकता सुधारू शकते.
तथापि, एआय कार्ये स्वयंचलित करू शकते की नाही हा गंभीर प्रश्न नाही, तर कोणती कार्ये स्वयंचलित करणे आवश्यक आहे आणि मानवी निर्णय कोठे अपरिवर्तनीय राहतो हा आहे. उत्तर हे समजून घेण्यामध्ये आहे की AI अन्वेषणात्मक कार्यप्रवाहांना गती देण्यामध्ये उत्कृष्ट आहे, परंतु उपाय आणि प्रतिसाद क्रियांना अजूनही मानवी सत्यापन आवश्यक आहे. सिस्टम ऑफलाइन घेतल्याने किंवा एंडपॉइंट वेगळे केल्याने व्यवसायावर मोठा परिणाम होऊ शकतो. हा कॉल स्वायत्तपणे करत असलेले AI अनवधानाने अडथळे आणू शकते.
सुरक्षा विश्लेषकांची जागा घेणे हे उद्दिष्ट नाही, तर उच्च-मूल्याचे कार्य करण्यासाठी त्यांना मुक्त करणे हे आहे. नियमित सूचना स्वयंचलित करून, विश्लेषक लाल संघ/निळ्या संघाच्या व्यायामावर लक्ष केंद्रित करू शकतात, अभियांत्रिकी संघांसोबत उपायांवर सहयोग करू शकतात आणि सक्रिय धोक्याची शिकार करू शकतात. सुरक्षेच्या समस्येचे निराकरण करण्यासाठी केवळ कमतरता नाही, तर त्यांचे धोरणात्मक निराकरण करण्यासाठी सुरक्षा तज्ञांची कमतरता देखील आहे.
आत्मविश्वासाचा अभाव: आपले कार्य सादर करणे
एआयच्या कार्यक्षमतेत सुधारणा करण्याच्या क्षमतेवर विश्वास उच्च असला तरी, एआय-चालित निर्णयांच्या गुणवत्तेबद्दल शंका आहेत. सुरक्षा कार्यसंघांना केवळ एआय-व्युत्पन्न निष्कर्षांपेक्षा अधिक आवश्यक आहे – ते निष्कर्ष कसे पोहोचले याबद्दल त्यांना पारदर्शकता आवश्यक आहे.
जेव्हा AI निर्धारित करते की ॲलर्ट सौम्य आहे आणि तो बंद करतो, तेव्हा सिक्युरिटी ऑपरेशन्स सेंटर (SOC) विश्लेषकांनी त्या निर्धाराला कारणीभूत असलेल्या तपासात्मक पायऱ्या समजून घेणे आवश्यक आहे. कोणता डेटा तपासला जातो? कोणते नमुने ओळखले गेले आहेत? कोणते पर्यायी स्पष्टीकरण विचारात घेतले आणि नाकारले गेले?
ही पारदर्शकता AI शिफारशींवर विश्वास निर्माण करते, AI लॉजिकचे प्रमाणीकरण सक्षम करते आणि सतत सुधारणा करण्याच्या संधी निर्माण करते. सर्वात महत्त्वाचे म्हणजे, ते जटिल निर्णयांच्या लूपमध्ये एक गंभीर मानवी उपस्थिती राखते ज्यासाठी व्यवसाय संदर्भ, अनुपालन आवश्यकता आणि संभाव्य कॅस्केडिंग प्रभावांची काळजीपूर्वक समजून घेणे आवश्यक आहे.
भविष्यात कदाचित संकरित मॉडेलचा समावेश असेल जिथे स्वायत्त क्षमता कृती आणि प्लेबुकच्या मार्गदर्शित अभ्यासक्रमांमध्ये एकत्रित केल्या जातात, विश्लेषक जटिल निर्णयांमध्ये गुंतलेले असतात.
विरोधाभासी फायदा: एआय बरोबर एआयशी लढा – काळजीपूर्वक
कृत्रिम बुद्धिमत्ता सुरक्षिततेमध्ये दुधारी तलवार दर्शवते. आम्ही योग्य रेलिंगसह AI काळजीपूर्वक अंमलात आणत असताना, विरोधकांना अशा मर्यादांचा सामना करावा लागत नाही. AI हल्लेखोरांच्या प्रवेशातील अडथळे कमी करते, जलद शोषण विकास आणि असुरक्षा शोध मोठ्या प्रमाणात सक्षम करते. एकेकाळी अत्याधुनिक धोक्याच्या कलाकारांचे क्षेत्र जे होते ते लवकरच कृत्रिम बुद्धिमत्तेच्या साधनांसह सशस्त्र मुलांच्या आवाक्यात येऊ शकते.
विषमता आश्चर्यकारक आहे: बचावकर्ते मुद्दाम आणि जोखीम-प्रतिरोधक असले पाहिजेत, तर हल्लेखोर मुक्तपणे प्रयोग करू शकतात. आम्ही स्वतंत्र सुरक्षा प्रतिसाद लागू करण्यात चुका केल्यास, आम्ही उत्पादन प्रणाली खाली आणण्याचा धोका पत्करतो. एआय आक्रमणकर्त्याचे शोषण अयशस्वी झाल्यास, ते कोणत्याही परिणामाशिवाय पुन्हा प्रयत्न करतात.
यामुळे AI संरक्षणात्मकपणे वापरण्याची गरज निर्माण होते, परंतु योग्य सावधगिरीने. आमच्या AI ला असुरक्षितता होण्यापासून रोखणारे रेलिंग राखताना आम्ही हल्लेखोरांच्या तंत्रांपासून शिकले पाहिजे. दुर्भावनापूर्ण MCP (मॉडेल कॉन्टेक्स्ट प्रोटोकॉल) पुरवठा साखळी हल्ल्यांचा अलीकडील उदय हे दर्शविते की विरोधक नवीन AI पायाभूत सुविधांचा किती लवकर शोषण करू शकतात.
कौशल्य संदिग्धता: मुख्य क्षमता राखून क्षमता निर्माण करणे
AI अधिक नियमित तपास कार्य हाताळत असल्याने, एक त्रासदायक प्रश्न उद्भवतो: सुरक्षा व्यावसायिकांची मुख्य कौशल्ये कालांतराने कमी होतील का? हा एआयचा अवलंब करण्याविरुद्धचा युक्तिवाद नाही, तर कौशल्य विकासासाठी हेतुपुरस्सर धोरणे आखण्याची हाक आहे. संस्थांनी AI-शक्तीची कार्यक्षमता आणि मूलभूत क्षमता राखणारे सॉफ्टवेअर यांच्यात संतुलन राखले पाहिजे. यामध्ये नियमित व्यायामाचा समावेश आहे ज्यासाठी मॅन्युअल तपासणी आवश्यक आहे, अंतःविषय प्रशिक्षण जे अंतर्निहित सिस्टीमची समज वाढवते आणि करिअरचे मार्ग जे त्यांना काढून टाकण्याऐवजी भूमिका पुढे करतात.
जबाबदारी सामायिक केली. नियोक्त्यांनी अशी साधने, प्रशिक्षण आणि संस्कृती प्रदान केली पाहिजे जी AI ला बदलण्याऐवजी मानवी कौशल्य वाढवण्यासाठी सक्षम करते. कर्मचाऱ्यांनी सक्रियपणे सतत शिकण्यात गुंतले पाहिजे, AI ला एक सहयोगी भागीदार म्हणून हाताळले पाहिजे आणि गंभीर विचारांचा पर्याय नाही.
ओळख संकट: व्यवस्थापन एजंट स्फोट
सक्रिय AI च्या जगात ओळख आणि प्रवेश व्यवस्थापन हे कदाचित सर्वात कमी आव्हान आहे. IDC च्या अंदाजानुसार 2028 पर्यंत 1.3 अब्ज एजंट असतील – प्रत्येकाला ओळख, परवानग्या आणि प्रशासन आवश्यक आहे. गुंतागुंत झपाट्याने वाढते.
अति उदार एजंट एक महत्त्वपूर्ण धोका दर्शवतात. व्यापक प्रशासकीय अधिकार असलेल्या एजंटला सामाजिकरित्या विध्वंसक कृती करण्यासाठी, फसव्या व्यवहारांना मान्यता देण्यासाठी किंवा संवेदनशील डेटा लीक करण्यासाठी तयार केले जाऊ शकते. अभियंत्यांनी वापरलेली तांत्रिक संक्षेप "फक्त ते काम करा" – तैनाती वेगवान करण्यासाठी अत्याधिक परवानग्या देणे – असुरक्षा निर्माण करते ज्यांचे विरोधक शोषण करतात.
टूल-आधारित ऍक्सेस कंट्रोल एजंटना फक्त त्यांना आवश्यक असलेल्या विशिष्ट क्षमता देऊन पुढे एकच मार्ग प्रदान करते. परंतु गव्हर्नन्स फ्रेमवर्कने हे देखील संबोधित केले पाहिजे की एलएलएम स्वतः प्रमाणीकरण माहिती कशी शिकू शकतात आणि ती टिकवून ठेवू शकतात, संभाव्यत: पारंपारिक प्रवेश नियंत्रणांना बायपास करणारे तोतयागिरी हल्ले सक्षम करतात.
पुढील मार्ग: अनुपालन आणि अहवालासह प्रारंभ करा
या आव्हानांमध्ये, एक क्षेत्र आहे जे तात्काळ, उच्च-प्रभाव संधी प्रदान करते: सतत अनुपालन आणि जोखीम संवाद. मोठ्या प्रमाणात दस्तऐवज वापरण्याची, जटिल आवश्यकतांचा अर्थ लावण्याची आणि संक्षिप्त सारांश तयार करण्याची AI ची क्षमता हे अनुपालन आणि अहवाल देण्याच्या कामासाठी आदर्श बनवते जे पारंपारिकपणे विश्लेषकांसाठी प्रचंड वेळ खर्च करते. हे सुरक्षा ऑपरेशन्समध्ये AI साठी कमी-जोखीम, उच्च-मूल्य असलेल्या एंट्री पॉइंटचे प्रतिनिधित्व करते.
डेटा फाउंडेशन: AI-पॉवर्ड SOC सक्षमीकरण
यापैकी कोणतीही AI क्षमता सुरक्षा ऑपरेशन्ससमोरील मूलभूत डेटा आव्हानांना संबोधित केल्याशिवाय यशस्वी होऊ शकत नाही. SOC कार्यसंघांना सायल्ड डेटा आणि भिन्न साधनांशी व्यवहार करण्यात अडचण येते. यशासाठी एक विचारशील डेटा धोरण आवश्यक आहे जे प्रवेशयोग्यता, गुणवत्ता आणि एकत्रित डेटा संदर्भांना प्राधान्य देते. सुरक्षा-संबंधित डेटा AI एजंट्सना घर्षणाशिवाय त्वरित उपलब्ध असणे आवश्यक आहे, विश्वासार्हता सुनिश्चित करण्यासाठी योग्यरित्या नियंत्रित करणे आवश्यक आहे आणि AI ला समजू शकत नाही असे व्यवसाय संदर्भ प्रदान करणाऱ्या मेटाडेटासह समृद्ध असणे आवश्यक आहे.
शेवटचा विचार: हेतूने नवीन करा
सिक्युरिटी ऑपरेशन्स सेंटर (एसओसी) उदयास येत आहे – हृदयावर एक साधा स्विच म्हणून नाही, तर एक उत्क्रांती प्रवास म्हणून ज्यासाठी सतत अनुकूलन आवश्यक आहे. यशासाठी आवश्यक आहे की आम्ही मानवी निर्णय, धोरणात्मक विचार आणि सुरक्षिततेसाठी आवश्यक असलेले नैतिक पर्यवेक्षण राखून AI च्या कार्यक्षमतेचा लाभ स्वीकारला पाहिजे.
आम्ही AI ने सुरक्षा टीम बदलत नाही आहोत. आम्ही सहयोगी, बहु-एजंट प्रणाली तयार करतो जिथे मानवी कौशल्य AI क्षमतांना अशा परिणामांसाठी मार्गदर्शन करते जे एकट्याने साध्य करू शकत नाही. हे एजंटिक AI च्या युगाचे वचन आहे – जर आपण तेथे कसे जायचे याबद्दल जाणूनबुजून आहोत.
तानिया फडौल, उत्पादन आणि ग्राहक रणनीतीचे उपाध्यक्ष आणि सिस्को कंपनीच्या स्प्लंकचे मुख्य कर्मचारी. मायकेल फॅनिंग हे स्प्लंक या सिस्को कंपनीत मुख्य माहिती सुरक्षा अधिकारी आहेत.
सिस्को डेटा फॅब्रिक AI आणि SOC ची पूर्ण क्षमता उघड करण्यासाठी ते स्प्लंक प्लॅटफॉर्मद्वारे समर्थित आवश्यक डेटा आर्किटेक्चर – युनिफाइड डेटा फॅब्रिक, युनिफाइड शोध क्षमता आणि सर्वसमावेशक मेटाडेटा व्यवस्थापन प्रदान करते. बद्दल अधिक जाणून घ्या सिस्को डेटा फॅब्रिक.
प्रायोजित लेख ही पोस्टसाठी पैसे देणाऱ्या किंवा VentureBeat शी कार्यरत संबंध असलेल्या कंपनीद्वारे उत्पादित केलेली सामग्री असते आणि नेहमी स्पष्टपणे लेबल केलेली असते. अधिक माहितीसाठी, कॉल करा sales@venturebeat.com.
















