बड़ा साइबर रिस्कः 81% भारतीय कंपनियां बिना AI सिस्टम मॉनिटरिंग के चल रहीं

81% भारतीय कंपनियां बिना प्रभावी AI सिक्योरिटी मॉनिटरिंग के काम कर रही हैं, जिससे साइबर अटैक, डेटा लीक और रेगुलेटरी एक्शन का बड़ा खतरा बढ़ गया है।​

Update: 2025-12-03 12:06 GMT

भारत की 81% कंपनियों के पास अपने AI सिस्टम की सुरक्षा मॉनिटरिंग ठीक से नहीं है, और यही लापरवाही आने वाले सालों में बड़े साइबर हमलों की वजह बन सकती है। वर्तमान में AI पर तेजी से खर्च तो हो रहा है, लेकिन उसे सुरक्षित रखने के लिए ज़रूरी गवर्नेंस, मॉनिटरिंग और रिस्क कंट्रोल अभी भी बेहद कमज़ोर हैं। भारत में कंपनियां AI को धड़ाधड़ अपना रही हैं, लेकिन सुरक्षा के मोर्चे पर कमजोर दिख रही हैं। ज़्यादातर संगठन नए‑नए AI टूल लगा तो रहे हैं, मगर यह देखने‑समझने के लिए कि ये सिस्टम क्या कर रहे हैं, कौन‑सा डेटा छू रहे हैं और कहां गलती कर रहे हैं, कोई मजबूत निगरानी व्यवस्था ही नहीं बना सके हैं।​

AI तेज़ी से बढ़ रहा, सुरक्षा पीछे छूट रही

अल्वारेज़ एंड मार्सल की एक ताज़ा रिपोर्ट के मुताबिक, भारत की 81% कंपनियों के पास AI सिस्टम के लिए प्रभावी ट्रैकिंग और मॉनिटरिंग फ्रेमवर्क नहीं है। यानी मॉडल चल रहे हैं, फैसले ले रहे हैं, लेकिन उनके आउटपुट, डेटा यूज़ और रिस्क पर लगातार नज़र रखने वाला कोई ढांचा ही नहीं है। रिपोर्ट बताती है कि सिर्फ करीब 15% कंपनियां ही ऐसे स्तर पर पहुंची हैं जहां AI का एंटरप्राइज़ वाइड, यानी पूरे संगठन में, बड़े पैमाने पर इस्तेमाल हो रहा हो। दिलचस्प बात यह है कि जिन संगठनों ने AI में सबसे ज्यादा निवेश किया है, उनमें भी सुरक्षा और गवर्नेंस का ढांचा विकसित नहीं हुआ है। ​

19% कंपनियां ही तैयारी  

आज ज्यादातर सेक्टर बैंकिंग, टेक, हेल्थकेयर, मैन्युफैक्चरिंग, रिटेल सभी AI पर दांव लगा चुके हैं। फ्रॉड डिटेक्शन से लेकर कस्टमर चेन एनालिसिस और हेल्थकेयर क्लेम प्रोसेसिंग तक, हर जगह मॉडल तैनात हैं, लेकिन कई जगह ये ब्लैक बॉक्स की तरह काम कर रहे हैं न लॉगिंग ठीक से, न अलर्टिंग, न ऑडिट ट्रेल। रिपोर्ट में यह भी सामने आया कि करीब 60% कंपनियों ने कागज़ पर तो AI गवर्नेंस की बेसिक पॉलिसी बना रखी है, लेकिन असली खेल वहां फेल हो जाता है जहां बात डीटेल्ड रिस्क असेसमेंट और प्रैक्टिकल इम्प्लीमेंटेशन की आती है यहां महज़ करीब 19% कंपनियां ही सीरियस तैयारी के साथ दिखती हैं।

सिक्योरिटी ब्लाइंड स्पॉट 

AI सिस्टम के पूरे लाइफसाइकल में कई ऐसे ब्लाइंड स्पॉट हैं जहां से खतरे चुपचाप घुस सकते हैं। बहुत कम कंपनियों ने यह व्यवस्था बनाई है कि ट्रेनिंग डेटा अगर गड़बड़ या छेड़छाड़ वाला हो तो उसे पकड़ा कैसे जाएगा। कई संगठनों के पास AI “हॉल्यूसीनेशन” यानी मॉडल द्वारा झूठे या भ्रामक आउटपुट को पकड़ने व कंट्रोल करने की कोई मजबूत क्षमता नहीं है, जबकि बिज़नेस‑क्रिटिकल फैसलों में ये आउटपुट सीधे इस्तेमाल हो रहे हैं। सोचिए, अगर किसी बैंक में AI मॉडल गलती से गलत रिस्क प्रोफाइलिंग कर दे या किसी बीमा कंपनी का मॉडल गलत क्लेम रिजेक्ट कर दे तो असर सीधे आम ग्राहक पर पड़ता है।

 इन‑हाउस ऐप्स पर ढिलाई

रिपोर्ट में विशेषज्ञों ने यह भी बताया कि इंटरनल AI ऐप्लिकेशन जैसे HR एनालिटिक्स, इंटर्नल हेल्थकेयर क्लेम टूल, बैकएंड प्रोसेस ऑटोमेशन पर कंपनियां कम सतर्क रहती हैं। वजह साफ है इन्हें पब्लिक फेसिंग नहीं माना जाता, इसलिए मान लिया जाता है कि डेटा सिक्योरिटी और प्राइवेसी की जरूरत यहां कम है। भारत में AI को लेकर पॉलिसी लेवल पर गति तेज हो चुकी है। सरकार की ओर से जारी AI गवर्नेंस गाइडलाइंस और डेटा प्रोटेक्शन कानूनों के बाद साफ संकेत है कि आने वाले समय में रेगुलेशन और सख़्त होगा। लेकिन ग्राउंड रियलिटी यह है कि कॉर्पोरेट सेक्टर में इन गाइडलाइंस को प्रोसेस, टीम और टेक्निकल कंट्रोल में बदलने की रफ्तार काफी धीमी है। कई कंपनियां अभी भी वेट एंड वॉच मोड में हैं।

Tags:    

Similar News