NSA च्या प्रवेशामुळे धोरणात्मक प्रश्न निर्माण झाले

The Decoder च्या Axios रिपोर्टिंगच्या सारांशानुसार, ज्यात दोन स्रोतांचा संदर्भ आहे, अमेरिकेची National Security Agency Anthropic चे सर्वात शक्तिशाली AI मॉडेल Mythos Preview वापरत आहे.

ही कथित तैनाती उल्लेखनीय आहे कारण NSA Pentagon च्या अधिकाराखाली येते, तर Defense Department ने स्वतंत्रपणे Anthropic ला सुरक्षा धोका म्हणून वर्गीकृत केले आहे आणि फेब्रुवारीपासून कंपनीला विक्रेता म्हणून रोखण्याचा प्रयत्न केला आहे.

ही परिस्थिती सरकारी AI स्वीकारामधील वाढता ताण दर्शवते: संस्थांना प्रगत मॉडेल्सचा प्रवेश हवा आहे, पण त्याच प्रणालींमुळे सुरक्षा, खरेदी, पाळत ठेवणे, आणि शस्त्र-धोरणाशी संबंधित चिंता निर्माण होऊ शकतात.

एक मर्यादित मॉडेल

Anthropic ने Project Glasswing नावाच्या उपक्रमांतर्गत Mythos चा प्रवेश सुमारे 40 संस्थांपुरता मर्यादित ठेवला आहे. कंपनीचे म्हणणे आहे की मॉडेलच्या offensive cyber क्षमता व्यापक प्रकाशनासाठी खूप धोकादायक आहेत.

ही मर्यादा Mythos ला सर्वसाधारण व्यावसायिक chatbots पेक्षा वेगळ्या श्रेणीत ठेवते. हे मॉडेल केवळ आणखी एक productivity tool नसून, संवेदनशील क्षमता म्हणून हाताळले जात आहे.

The Decoder नुसार, Anthropic CEO Dario Amodei यांनी गेल्या आठवड्यात White House अधिकाऱ्यांची भेट घेऊन सरकारी संस्थांमध्ये Mythos तैनात करण्यावर चर्चा केली. UK च्या intelligence services ना देखील देशाच्या AI Security Institute मार्फत या मॉडेलचा प्रवेश असल्याचे सांगितले जाते.

स्वीकार्य वापरावर वाद

Pentagon ने Anthropic कडे Claude सर्व कायदेशीर वापरांसाठी उपलब्ध करून देण्याची मागणी केली आहे. Anthropic ने ते नाकारून mass surveillance आणि autonomous weapons भोवती मर्यादा ठरवल्या.

हा वाद उदयोन्मुख AI procurement चर्चेच्या केंद्राला भिडतो. एक model provider आपल्या प्रणालींचा वापर कसा व्हावा यासाठी red lines ठरवू इच्छितो, तर सरकारी खरेदीदार म्हणू शकतात की परवानगीयोग्य वापर कायदेशीर अधिकाराने ठरवला पाहिजे.

intelligence आणि defense संस्थांसाठी frontier AI models cyber analysis, language processing, information triage, आणि इतर उच्च-प्रमाणातील विश्लेषणात्मक कामांसाठी उपयुक्त ठरू शकतात. पण त्याच क्षमता पाळत ठेवणे, offensive cyber operations, किंवा कमी मानवी नियंत्रण असलेल्या प्रणालींमध्ये वापरल्या गेल्यास चिंता निर्माण करू शकतात.

हे का महत्त्वाचे आहे

Mythos चा कथित NSA वापर सूचित करतो की vendor restrictions, national security exclusions, आणि acceptable-use boundaries यांच्याभोवती स्थिर धोरणात्मक निकष पूर्णपणे तयार होण्याआधीच शक्तिशाली AI systems संवेदनशील सरकारी वातावरणात प्रवेश करत आहेत.

हा संघर्ष हेही दाखवतो की AI safety commitments आता केवळ product-design चा विषय नाही. त्या procurement terms, legal disputes, आणि national security प्रश्न बनत आहेत.

जर संस्था मर्यादित AI मॉडेल्स स्वीकारत असताना सरकारचे इतर भाग विक्रेत्याच्या भूमिकेला आव्हान देत राहिले, तर परिणाम तुकड्या-तुकड्यांचा दृष्टिकोन असू शकतो: एक कार्यालय मॉडेलला धोरणात्मकदृष्ट्या आवश्यक मानेल, तर दुसरे provider ला सुरक्षा चिंता समजेल.

Mythos case नक्कीच बारकाईने पाहिला जाईल, कारण यात AI governance चे अनेक सर्वात महत्त्वाचे प्रश्न एकाच वेळी येतात: frontier models कसा प्रवेश मिळेल, cyber-capable systems कशा नियंत्रित केल्या जातील, आणि private AI company काही सरकारी वापर नाकारत असतानाही public-sector customers ना सेवा देऊ शकते का.

हा लेख The Decoder च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.

Originally published on the-decoder.com