NSA की पहुंच ने नीति संबंधी सवाल खड़े किए
The Decoder के Axios रिपोर्टिंग सारांश के अनुसार, जो दो स्रोतों का हवाला देता है, अमेरिकी नेशनल सिक्योरिटी एजेंसी Anthropic के सबसे शक्तिशाली AI मॉडल, Mythos Preview, का उपयोग कर रही है।
यह रिपोर्टेड तैनाती उल्लेखनीय है क्योंकि NSA पेंटागन की अधिकार-सीमा के तहत आता है, जबकि रक्षा विभाग ने अलग से Anthropic को सुरक्षा जोखिम के रूप में वर्गीकृत किया है और फरवरी से कंपनी को विक्रेता के रूप में रोकने की कोशिश की है।
यह स्थिति सरकारी AI अपनाने में बढ़ते तनाव को दर्शाती है: एजेंसियाँ उन्नत मॉडल तक पहुँच चाहती हैं, लेकिन वही प्रणालियाँ सुरक्षा, खरीद, निगरानी और हथियार-नीति संबंधी चिंताएँ भी खड़ी कर सकती हैं।
एक प्रतिबंधित मॉडल
Anthropic ने Project Glasswing नामक प्रयास के तहत Mythos की पहुँच लगभग 40 संगठनों तक सीमित रखी है। कंपनी का कहना है कि मॉडल की offensive cyber क्षमताएँ व्यापक रिलीज़ के लिए बहुत खतरनाक हैं।
यह प्रतिबंध Mythos को सामान्य व्यावसायिक चैटबॉट्स से अलग श्रेणी में रखता है। इस मॉडल को सिर्फ़ एक और उत्पादकता उपकरण के रूप में नहीं, बल्कि एक संवेदनशील क्षमता के रूप में देखा जा रहा है।
The Decoder के अनुसार, Anthropic के CEO डारियो अमोडेई ने पिछले सप्ताह व्हाइट हाउस अधिकारियों से मुलाकात की थी, ताकि सरकारी एजेंसियों में Mythos को तैनात करने पर चर्चा की जा सके। रिपोर्ट के अनुसार, ब्रिटेन की खुफिया सेवाओं को भी देश के AI Security Institute के माध्यम से इस मॉडल तक पहुँच है।
स्वीकार्य उपयोग पर विवाद
पेंटागन ने Anthropic से मांग की है कि Claude सभी कानूनी उद्देश्यों के लिए उपलब्ध कराया जाए। Anthropic ने इसे अस्वीकार किया और बड़े पैमाने की निगरानी तथा स्वायत्त हथियारों पर सीमाएँ तय कीं।
यह असहमति उभरती AI खरीद बहस के केंद्र को छूती है। एक मॉडल प्रदाता यह तय करना चाह सकता है कि उसकी प्रणालियों का उपयोग कैसे हो, जबकि सरकारी खरीदार यह तर्क दे सकते हैं कि अनुमत उपयोगों को कानूनी अधिकार तय करना चाहिए।
खुफिया और रक्षा एजेंसियों के लिए, frontier AI मॉडल साइबर विश्लेषण, भाषा प्रसंस्करण, सूचना छंटाई, और अन्य उच्च-आयतन विश्लेषणात्मक कार्यों में उपयोगी हो सकते हैं। लेकिन वही क्षमताएँ निगरानी, आक्रामक साइबर ऑपरेशनों, या कम मानव नियंत्रण वाले सिस्टमों में चिंता पैदा कर सकती हैं।
यह क्यों मायने रखता है
Mythos के कथित NSA उपयोग से संकेत मिलता है कि शक्तिशाली AI प्रणालियाँ संवेदनशील सरकारी परिवेशों में तब भी प्रवेश कर रही हैं, जब विक्रेता प्रतिबंधों, राष्ट्रीय सुरक्षा अपवर्जनों, और स्वीकार्य-उपयोग सीमाओं के आसपास स्थिर नीति मानदंड अभी पूरी तरह बने भी नहीं हैं।
यह टकराव यह भी दिखाता है कि AI सुरक्षा प्रतिबद्धताएँ अब केवल उत्पाद-डिज़ाइन का मुद्दा नहीं रह गई हैं। वे अब खरीद शर्तें, कानूनी विवाद, और राष्ट्रीय सुरक्षा प्रश्न बनती जा रही हैं।
यदि एजेंसियाँ प्रतिबंधित AI मॉडल अपनाती हैं, जबकि सरकार के अन्य हिस्से विक्रेता की भूमिका को चुनौती देते हैं, तो परिणाम एक खंडित दृष्टिकोण हो सकता है: एक कार्यालय मॉडल को रणनीतिक रूप से आवश्यक मानता है, जबकि दूसरा विक्रेता को सुरक्षा चिंता समझता है।
Mythos मामला संभवतः इसलिए बारीकी से देखा जाएगा क्योंकि इसमें AI शासन के कई सबसे महत्वपूर्ण प्रश्न एक साथ शामिल हैं: frontier मॉडल तक किसकी पहुँच हो, cyber-capable systems को कैसे नियंत्रित किया जाए, और क्या कोई निजी AI कंपनी कुछ सरकारी उपयोगों को मना कर सकती है जबकि सार्वजनिक क्षेत्र के ग्राहकों को सेवाएँ देती रहे।
यह लेख The Decoder की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.
Originally published on the-decoder.com



