सुरक्षा चाचण्यांची थट्टा करण्यापासून त्या पुन्हा उभारण्यापर्यंत

फ्रंटियर AI देखरेखीबाबत ट्रंप प्रशासनाने आपली भूमिका तीव्रपणे बदलली आहे. प्रगत मॉडेल्सची सरकारी सुरक्षा तपासणी प्रकाशनापूर्वी आणि नंतर करण्यासाठी Google DeepMind, Microsoft आणि xAI सोबत नवीन करार केले आहेत. हा बदल केवळ तो काय करतो यासाठी महत्त्वाचा नाही, तर तो प्रशासनाच्या पूर्वीच्या भूमिकेपासून किती थेट वेगळा आहे यासाठीही महत्त्वाचा आहे.

Ars Technica नुसार, अध्यक्ष डोनाल्ड ट्रंप यांनी याआधी बायडन युगातील स्वैच्छिक AI सुरक्षा तपासण्या नवोपक्रमाला अडथळा आणणारा नियामक अतिरेक म्हणून नाकारल्या होत्या. पदभार स्वीकारल्यानंतर लगेचच प्रशासनाने US AI Safety Institute चे नाव बदलून Center for AI Standards and Innovation, किंवा CAISI, असे केले, आणि शीर्षकातून “safety” हा शब्द काढून टाकला; स्रोताच्या मते ही जो बायडनवर केलेली सूचक टीका होती.

आता तेच प्रशासन ज्या धोरण चौकटीची थट्टा करत होते, त्याचाच एक प्रकार पुन्हा आणत आहे.

Mythosचा धक्का

दिसणारा टर्निंग पॉइंट Anthropic ने आपला नवीन Claude Mythos मॉडेल प्रसिद्ध न करण्याचा निर्णय होता. Ars Technica च्या अहवालानुसार, वाईट हेतू असलेले लोक त्याच्या प्रगत सायबरसुरक्षा क्षमतांचा गैरवापर करू शकतील, म्हणून कंपनीने ते प्रकाशित करणे खूप धोकादायक मानले. त्या निर्णयाचा वॉशिंग्टनमध्ये मोठा परिणाम झाला असावा.

स्रोत मजकुरानुसार, व्हाईट हाउस नॅशनल इकॉनॉमिक कौन्सिलचे संचालक Kevin Hassett यांनी Fortune ला सांगितले की ट्रंप लवकरच असा executive order काढू शकतात, ज्यामुळे प्रगत AI प्रणालींना प्रकाशनापूर्वी सरकारी चाचणी द्यावी लागेल. असे झाले, तर प्रशासन पुन्हा सुरू झालेल्या स्वैच्छिक सहकार्यापासून औपचारिक प्रकाशनपूर्व मूल्यांकन व्यवस्थेकडे जाईल.

राजकीय विडंबना लक्षात न येणे कठीण आहे. ज्या व्हाईट हाउसने सुरक्षितता देखरेखीला प्रगतीवरची ब्रेक म्हणून मांडले होते, तेच आता अशा आदेशाचा विचार करत आहे, जेव्हा एका फ्रंटियर मॉडेलने इतकी गंभीर चिंता निर्माण केली की त्याच्या निर्मात्याने तेच प्रकाशितच केले नाही.

CAISIची मोठी भूमिका

CAISIच्या स्वतःच्या घोषणेत स्पष्टपणे सांगितले की नवीन करार बायडनच्या आधीच्या धोरणावर “build on” करतात. हा शब्दप्रयोग महत्त्वाचा आहे, कारण एका वादग्रस्त टप्प्यानंतरही तो सातत्य मान्य करतो. प्रशासनाने ब्रँडिंग बदलले असले, तरी संरचित मॉडेल मूल्यांकनाची गरज पुन्हा प्रबळ झाल्याचे दिसते.

CAISIचे संचालक Chris Fall म्हणाले की वाढलेली उद्योग भागीदारी केंद्राला “critical moment” मध्ये सार्वजनिक हितासाठी आपले काम वाढविण्यात मदत करेल. स्रोत मजकुरानुसार, CAISI ने आतापर्यंत सुमारे 40 मूल्यांकन पूर्ण केली आहेत, ज्यात अद्याप प्रसिद्ध न झालेल्या फ्रंटियर मॉडेल्सवरील चाचण्या समाविष्ट आहेत.

ही मूल्यांकनं विशेषतः महत्त्वाची आहेत, कारण CAISIला अनेकदा अशा प्रणालींना प्रवेश मिळतो ज्यातील सुरक्षा स्तर कमी केलेले किंवा काढून टाकलेले असतात. त्यामुळे सार्वजनिकरित्या उपलब्ध तैनातींपेक्षा राष्ट्रीय सुरक्षा-संबंधित क्षमता आणि जोखमींचे अधिक सखोल मूल्यांकन करता येते, असे संस्थेचे म्हणणे आहे.

प्रत्यक्षात याचा अर्थ असा की सरकार केवळ लाँचनंतरची परिष्कृत उत्पादने पाहत नाही. काही सुरक्षा थर काढल्यावर मॉडेल्स काय करू शकतात हेही तपासत आहे, आणि हे क्षमता मूल्यांकनाचे अधिक सखोल रूप आहे.

धोरण बदलामागे राष्ट्रीय सुरक्षा

प्रशासनाची नवी भूमिका मोठ्या प्रमाणावर राष्ट्रीय सुरक्षेच्या चौकटीत मांडली जात आहे. AI राष्ट्रीय सुरक्षा चिंतांवर लक्ष केंद्रित करणाऱ्या तज्ज्ञांचा एक interagency task force तयार झाला आहे, जेणेकरून मूल्यांकनकर्ते सरकारभरातील उदयोन्मुख जोखमींशी जुळवून घेऊ शकतील, असे CAISI म्हणते.

हा भर महत्त्वाचा आहे, कारण तो राजकीय पुनर्स्थापन समजावून सांगतो. AI नैतिकता किंवा ग्राहक-हानीवरील सामान्य वाद धोरणकर्त्यांना परिचित वैचारिक रेषांवर विभागू शकतात. राष्ट्रीय सुरक्षा प्रश्न त्या रेषा अधिक वेगाने पुनर्गठित करतात. धोकादायक cyber misuse करण्यास सक्षम वाटणाऱ्या मॉडेलला पारंपरिक तंत्रज्ञान-धोरण विवादापेक्षा धोरणात्मक धोका म्हणून मांडणे सोपे असते.

यामुळे AIचे शासन कसे असावे हा मोठा वाद संपत नाही, पण सध्या प्रशासनाला काय पुढे ढकलत आहे हे स्पष्ट होते. चिंता ही अमूर्त सुरक्षा ब्रँडिंगची नाही. चिंता ही आहे की फ्रंटियर सिस्टिम्स सरकारचे मूल्यांकनकर्ते जोखमीचा प्रोफाइल समजण्यापूर्वीच शत्रुत्वपूर्ण घटकांना कार्यात्मक फायदा देऊ शकतात.

हे उलटणे का महत्त्वाचे

नवीन करारांचे महत्त्व धोरण आणि संकेत, दोन्ही पातळ्यांवर आहे. धोरणाच्या दृष्टीने, ते एक असा मार्ग पुन्हा उघडतात ज्याद्वारे मोठ्या AI कंपन्या त्यांच्या फ्रंटियर प्रणाली प्रकाशनापूर्वी आणि नंतर सरकारी तपासणीसाठी सादर करतात. संकेताच्या दृष्टीने, ते दाखवतात की “AI safety” बद्दल शब्दांनी शत्रुत्व दाखवणारे प्रशासनही क्षमतांमध्ये वेगाने वाढ झाली की संरचित देखरेखीला परतू शकते.

सहभागी कंपन्याही महत्त्वाच्या आहेत. Google DeepMind, Microsoft आणि xAI या आघाडीच्या प्रणाली तयार करणाऱ्या किंवा त्यांना पाठिंबा देणाऱ्या कंपन्यांमध्ये आहेत, त्यामुळे त्यांचा सहभाग या चौकटीला प्रत्यक्ष वजन देतो. भविष्यातील executive order ने चाचणी बंधनकारक केली, तर सरकारकडे आधीपासून सक्रिय संबंध आणि काही कार्यकारी अनुभव असेल.

त्याच वेळी, सध्याचा बदल काही अनुत्तरित प्रश्न उघडे ठेवतो. स्रोत मजकुरात काही कंपन्यांनी करार केल्याचे म्हटले आहे, पण संपूर्ण यादी किंवा अंमलबजावणीचे तपशील दिलेले नाहीत. ट्रंप पुढे executive order नेले, तर “advanced” प्रणालीची मर्यादा नेमकी कशावर आधारित असेल, हेही स्पष्ट नाही.

तरीही दिशा स्पष्ट आहे. AI safety कमी लेखण्याचा प्रयत्न करणाऱ्या व्हाईट हाउसला फ्रंटियर मॉडेल्सचे वर्तन आणि ती तयार करणाऱ्या कंपन्यांचा इशारा यामुळे पुन्हा त्या दिशेने ढकलले गेले आहे.

क्षमतांमुळे बदललेला धोरण वाद

सैद्धांतिक चिंता प्रत्यक्ष कामकाजातील चिंतांमध्ये रूपांतरित झाल्यावर AI धोरणावरील वाद किती पटकन बदलू शकतो, याची ही आठवण आहे. ट्रंप प्रशासन हळूहळू राजकीय तडजोडीतून बायडन दृष्टिकोनाकडे वळलेले नाही. असे दिसते की एका ठोस प्रकरणावर त्यांनी प्रतिक्रिया दिली, ज्यात एका प्रमुख डेव्हलपरने मॉडेल प्रसिद्ध करण्यासाठी ते खूप धोकादायक असल्याचे ठरवले.

हा फरक महत्त्वाचा आहे. उदयोन्मुख AI परिदृश्यात, क्षमतेचे धक्के वैचारिक सातत्यापेक्षा जलद धोरण घडवू शकतात. आणि जर प्रशासनाने बंधनकारक प्रकाशनपूर्व चाचणीकडे पुढे गेले, तर फ्रंटियर AI मूल्यांकनातील अलीकडील सर्वात मजबूत अमेरिकी हालचालींपैकी एक अशा अध्यक्षाकडून आली असेल, ज्यांनी सुरुवातीला अशा देखरेखीला अनावश्यक मानले होते.

  • ट्रंप प्रशासनाने Google DeepMind, Microsoft आणि xAI सोबत नवीन स्वैच्छिक AI सुरक्षा चाचणी करार केले.
  • या पावलाने बायडन काळातील AI सुरक्षा तपासण्या आधी फेटाळण्याची भूमिका उलटली आहे.
  • Anthropic चा अप्रकाशित Claude Mythos मॉडेल या बदलाला गती देणारा घटक ठरला असावा.
  • प्रगत AI प्रणालींसाठी प्रकाशनपूर्व चाचणी बंधनकारक करणारा executive order आता विचाराधीन आहे.

हा लेख Ars Technica च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.