वित्तीय स्थिरता अधिकारी मॉडल के व्यापक रिलीज़ से पहले ही प्रतिक्रिया दे रहे हैं

रिपोर्ट के अनुसार, अमेरिकी ट्रेजरी सचिव स्कॉट बेसेंट द्वारा Anthropic के नवीनतम AI मॉडल से जुड़े साइबर जोखिमों पर प्रमुख अमेरिकी बैंक प्रमुखों को वाशिंगटन बुलाने का निर्णय इस बात में एक उल्लेखनीय बदलाव है कि नीति निर्माता फ्रंटियर AI को कैसे देख रहे हैं। यह अब केवल शोधकर्ताओं और मॉडल डेवलपर्स के बीच की बहस नहीं रह गई है। इसे एक प्रणालीगत वित्तीय जोखिम के रूप में चर्चा की जा रही है।

रिपोर्ट के मुताबिक, यह बैठक Anthropic के Claude Mythos मॉडल से जुड़ी जानकारी सामने आने के बाद हुई, जिसे कंपनी ने अभूतपूर्व साइबर सुरक्षा जोखिम पैदा करने वाला बताया है। बताया जाता है कि फेडरल रिज़र्व के चेयर जेरोम पॉवेल भी वहां मौजूद लोगों में शामिल थे, जो यह दिखाता है कि अधिकारी इस मुद्दे को कितनी गंभीरता से ले रहे हैं।

चिंता सॉफ्टवेयर शोषण की क्षमताओं से जुड़ी है

Anthropic ने महीने की शुरुआत में एक ब्लॉग पोस्ट में कहा था कि AI मॉडल “सबसे कुशल इंसानों को छोड़कर सभी” से आगे निकल गए हैं, जब बात सॉफ्टवेयर कमजोरियों को खोजने और उनका शोषण करने की आती है। कंपनी ने चेतावनी दी कि अर्थव्यवस्थाओं, सार्वजनिक सुरक्षा और राष्ट्रीय सुरक्षा पर इसके परिणाम गंभीर हो सकते हैं।

उस चेतावनी की तत्काल पृष्ठभूमि Claude के कोड का हालिया लीक था, जिससे इस पर ध्यान और बढ़ गया कि यदि मॉडल की क्षमताओं का दुरुपयोग हो या उन्हें पर्याप्त रूप से नियंत्रित न किया जाए, तो यह क्या सक्षम कर सकता है। रिपोर्ट कहती है कि Anthropic ने बताया है कि उसके Mythos मॉडल ने, जिसे अभी व्यापक रूप से जारी नहीं किया गया है, सॉफ्टवेयर और लोकप्रिय ऐप्स में हजारों कमजोरियां उजागर की हैं।

यह दावा समझाता है कि नियामक और बैंक के अधिकारी इस मुद्दे को आपात क्यों मानेंगे। बड़े वित्तीय संस्थान विशाल सॉफ्टवेयर परिसंपत्तियों, विरासत प्रणालियों, विक्रेता कनेक्शनों और डिजिटल चैनलों पर निर्भर करते हैं, जो मिलकर व्यापक अटैक सरफेस बनाते हैं। यदि AI सिस्टम शोषण योग्य कमजोरियां खोजने के लिए आवश्यक कौशल स्तर को महत्वपूर्ण रूप से घटा देते हैं, तो बैंकों पर रक्षा का बोझ तेजी से बढ़ जाता है।

Anthropic एक असामान्य कदम में पहुंच सीमित कर रहा है

कंपनी की प्रतिक्रिया स्वयं उल्लेखनीय है। रिपोर्ट कहती है कि यह पहली बार है जब Anthropic ने किसी उत्पाद की रिलीज़ सीमित की है। Mythos तक पहुंच कथित तौर पर कंपनियों के एक छोटे समूह तक सीमित की गई है, जिनमें Amazon, Apple, Microsoft, Cisco, Broadcom और Linux Foundation शामिल हैं।

यह सीमा दो कारणों से महत्वपूर्ण है। पहला, यह संकेत देती है कि Anthropic मानता है कि मॉडल के साइबर निहितार्थ इतने असाधारण हैं कि सामान्य से अधिक सावधानीपूर्ण रोलआउट उचित है। दूसरा, यह बताता है कि फ्रंटियर-AI क्षेत्र ऐसे चरण में प्रवेश कर सकता है जहां मॉडल एक्सेस के फैसले increasingly export-control logic, security-clearance logic, या critical-infrastructure governance जैसे लगने लगते हैं, न कि सामान्य उत्पाद लॉन्च जैसे।

वित्तीय क्षेत्र के लिए यह कठिन सवाल खड़ा करता है। यदि शक्तिशाली vulnerability-discovery क्षमताओं वाला मॉडल मौजूद है, तो बैंकों को केवल यह नहीं सोचना होगा कि क्या वे इसे रक्षा के लिए उपयोग कर सकते हैं, बल्कि यह भी कि क्या विरोधी, ठेकेदार या तीसरे पक्ष लीक, व्युत्पन्न प्रणालियों या भविष्य के रिलीज़ के जरिए उस तक पहुंच हासिल कर सकते हैं।

बैंक चिंता के केंद्र में क्यों हैं

बताया जाता है कि अतिथि सूची प्रणालीगत रूप से महत्वपूर्ण बैंकों के नेताओं पर केंद्रित थी, यानी वे संस्थान जिनमें व्यवधान या पतन वित्तीय स्थिरता को खतरे में डाल सकता है। उपस्थित लोगों में Goldman Sachs, Bank of America, Citigroup, Morgan Stanley, और Wells Fargo के कार्यकारी शामिल थे। JPMorgan के Jamie Dimon को भी आमंत्रित किया गया था, लेकिन वे उपस्थित नहीं हो सके।

इन बैंकों पर ध्यान यह दर्शाता है कि मुद्दे को सामान्य साइबर स्वच्छता के रूप में नहीं देखा जा रहा है। इसे एक संकेंद्रण जोखिम के रूप में माना जा रहा है। किसी बड़े बैंक को प्रभावित करने वाली गंभीर साइबर घटना भुगतान, बाजार, भरोसे और तरलता तक फैल सकती है। इसलिए AI-संवर्धित vulnerability discovery अब केवल तकनीकी मुद्दा नहीं, बल्कि एक macroprudential मुद्दा बन जाता है।

रिपोर्ट में उद्धृत Dimon का वार्षिक शेयरधारक पत्र भी इसी ढांचे से मेल खाता है। उन्होंने चेतावनी दी कि साइबर सुरक्षा कंपनी के सबसे बड़े जोखिमों में से एक बनी हुई है और AI लगभग निश्चित रूप से उस जोखिम को और खराब करेगी।

एक नीति सीमा पार हो सकती है

लंबे समय से चेतावनियां रही हैं कि उन्नत AI साइबर आक्रमण और रक्षा को बदल सकती है। जो बदल रहा है, वह यह है कि वरिष्ठ आर्थिक और नियामक अधिकारी इस संभावना पर सार्वजनिक संकट के मजबूर करने से पहले ही कार्रवाई करने को कितने तैयार दिख रहे हैं। शीर्ष बैंक नेताओं को एक साथ बुलाना स्वयं यह बयान है कि फ्रंटियर मॉडल क्षमता अब राष्ट्रीय वित्तीय लचीलापन योजना के लिए प्रासंगिक है।

यह AI कंपनियों, वित्तीय नियामकों और महत्वपूर्ण अवसंरचना संचालकों के बीच अधिक औपचारिक समन्वय का दबाव भी बनाता है। यदि मॉडल डेवलपर्स हजारों कमजोरियां खोज रहे हैं, तो सरकारें increasingly जानना चाहेंगी कि उस जानकारी को कैसे संभाला जाता है, किसे पहुंच मिलती है, सुधार कैसे समन्वित किए जाते हैं, और व्यापक तैनाती से पहले कौन-से सुरक्षा उपाय मौजूद हैं।

Mythos प्रकरण अभी यह साबित नहीं करता कि कोई विशेष हमलावर लहर निकट है। लेकिन यह दिखाता है कि वरिष्ठ अधिकारी अब मुद्दे को बढ़ाने से पहले पूर्ण निश्चितता का इंतजार नहीं कर रहे हैं। बैंकों के लिए इसका मतलब संभवतः पैचिंग, निगरानी, रेड-टीमिंग और मॉडल-जोखिम जागरूकता पर अधिक अपेक्षाएं होंगी। AI कंपनियों के लिए इसका मतलब है कि क्षमता संबंधी दावे अब उत्पाद रुचि जितना ही राष्ट्रीय सुरक्षा-स्तर की जांच भी खींच सकते हैं।

फ्रंटियर मॉडल लॉन्च से अवसंरचना जोखिम तक

बैठक का बड़ा महत्व उस श्रेणी परिवर्तन में है जिसका यह प्रतिनिधित्व करती है। फ्रंटियर AI सिस्टम अब केवल उत्पादकता उपकरण या शोध उपलब्धि के रूप में नहीं आंके जा रहे हैं। कुछ मामलों में, उन्हें ऐसी तकनीकें माना जा रहा है जिनका महत्वपूर्ण अवसंरचना और प्रणालीगत स्थिरता पर सीधा प्रभाव है।

यह एक नया चरण है। वित्तीय क्षेत्र उन पहले स्थानों में से एक है जहां इस बदलाव के परिणाम दिखाई देने लगे हैं।

यह लेख The Guardian की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.