सिद्धांतापासून धोरणाकडे सरकणारी चर्चा
MIT Technology Review च्या 17 एप्रिलच्या The Download आवृत्तीत अशा विषयाला केंद्रस्थानी ठेवण्यात आले, जो सरकारे आणि तंत्रज्ञान कंपन्यांसाठी टाळणे कठीण होत चालला आहे: AI प्रणाली अधिक निर्णायक निर्णयांमध्ये खोलवर शिरत आहेत, तर देखरेखीबद्दलची सार्वजनिक भाषा त्याबरोबर पुढे जात नाही असे दिसते. न्यूजलेटरने AI युद्धात “humans in the loop” ही दिलासा देणारी भाषा भ्रामक ठरू शकते असा युक्तिवाद करणाऱ्या op-ed ला Anthropic च्या नवीन Mythos model वर White House प्रवेश मिळवू इच्छिते अशा अहवालासोबत जोडले, जरी कंपनीने safety grounds वर तो सार्वजनिकरित्या प्रसिद्ध न करण्याचा निर्णय घेतला होता.
दोन्ही गोष्टी एकत्र पाहिल्यास अधिक अस्वस्थ करणारा परिसर दिसतो. एक चर्चा विचारते की लष्करी AI वर मानवी नियंत्रण खरोखर आहे की बहुधा प्रतीकात्मक. दुसरी सूचित करते की frontier systems वापरण्यासाठी सरकारे दबाव आणू शकतात, जरी ती तयार करणाऱ्या कंपन्या असामान्य सावधगिरी दाखवत असल्या तरी. यापैकी कोणतीही गोष्ट एकटी धोरणात्मक वाद मिटवत नाही, पण एकत्र त्या दाखवतात की चर्चा किती वेगाने अमूर्त तत्त्वांपलीकडे गेली आहे.
“human in the loop” या वाक्यांशाची अडचण
न्यूजलेटरनुसार, AI आधीच प्रत्यक्ष युद्धांना आकार देत आहे. हाच तथ्य Uri Maoz यांच्या featured op-ed मधील युक्तिवादाचा पाया आहे, ज्यात म्हटले आहे की humans ना “in the loop” मध्ये ठेवण्याची दिलासा देणारी भाषा खोल समस्येकडून लक्ष हटवू शकते. Pentagon guidelines नुसार, मानवी देखरेखीचे उद्दिष्ट जबाबदारी, संदर्भ, आणि सुरक्षा देणे आहे. पण op-ed चा युक्तिवाद असा की खरी धोकादायक गोष्ट केवळ मशीन देखरेखीशिवाय कृती करतील इतकीच नाही. समस्या हीही आहे की मानवी पर्यवेक्षकांना ते ज्या प्रणालींची देखरेख करतात, त्या प्रत्यक्षात काय करत आहेत किंवा “विचार” काय करत आहेत हे समजत नाही.
ही टीका महत्त्वाची आहे, कारण “human in the loop” हे लष्करी प्रणालींमधील autonomy बद्दलच्या भीती शांत करणारे डीफॉल्ट धोरणात्मक वाक्य बनले आहे. हा शब्द नियंत्रण, उलटता येण्याजोगेपणा, आणि अर्थपूर्ण निर्णय यांचा अर्थ सूचित करतो. पण जर मानवी भूमिका केवळ अशा outputs पाहण्यापुरती मर्यादित असेल, ज्यांचे अंतर्गत reasoning अस्पष्ट प्रणाली तयार करतात, तर व्यक्तीची उपस्थिती सुरक्षेची हमी देते असे म्हणता येणार नाही.
op-ed असे म्हणत नाही की मानव अप्रासंगिक आहेत. तो म्हणतो की सध्याची देखरेख, AI प्रणाली दडपणाखाली समजायला कठीण झाल्यावर, अपुरी ठरू शकते. हे नेहमीच्या automation fears पेक्षा अधिक मागणी करणारे म्हणणे आहे. तो सांगतो की धोरणात्मक आव्हान फक्त साखळीच्या शेवटी एक मानवी button-push ठेवणे नाही. तर अशी सुरक्षा-व्यवस्था तयार करणे आहे जिथे supervising मानवाला model ने शिफारसीपर्यंत कसे पोहोचले याची स्पष्ट दृश्यता नसते, किंवा operational tempo मुळे तपासणीसाठी वेळ कमी होतो.
MIT Technology Review च्या सारांशात म्हटले आहे की विज्ञान पुढचा मार्ग देऊ शकते आणि AI warfare साठी नवीन safeguards ची गरज आहे. थोडक्यात असले तरी हा भर खूप काही सांगतो. चर्चा आता केवळ मानवांचा सहभाग राहावा की नाही यापुरती मर्यादित नाही. ती अधिकाधिक या प्रश्नावर केंद्रित होत आहे की कोणत्या प्रकारचा सहभाग खऱ्या नियंत्रणासाठी पुरेसा अर्थपूर्ण आहे.
सरकारी मागणी model restraint शी धडकते आहे
न्यूजलेटरने हेही नोंदवले की Anthropic वर पूर्वीच्या हालचाली असूनही White House त्याच्या नवीन Mythos model मध्ये प्रवेश इच्छिते. Trump प्रशासनातील अधिकारी तो model मिळवण्यासाठी चर्चा करत आहेत, जरी Anthropic ने तो सार्वजनिक प्रकाशनासाठी खूप धोकादायक मानला होता. कंपनीने अलीकडेच आणखी एक model जारी केला आणि त्याला Mythos पेक्षा कमी जोखमीचा म्हणून वर्णन केले, असेही त्यात म्हटले आहे.
हे तपशील सार्वजनिक-प्रकाशन मानके आणि सरकारी मागणी यांच्यातील वाढत्या दरीकडे निर्देश करतात. जर एखादी कंपनी जोखमीच्या प्रोफाइलमुळे एखादी system रोखून ठेवते, पण अधिकारी तरीही ती मिळवू इच्छितात, तर “सामान्य प्रकाशनासाठी खूप धोकादायक” आणि “राज्य वापरासाठी स्वीकार्य” यामधली सीमा जिवंत धोरणात्मक प्रश्न बनते. हा प्रश्न केवळ procurement चा नाही, जबाबदारीचाही आहे. सरकारे रणनीतिक फायदा मिळवण्यासाठी अधिक सक्षम models इच्छितात, पण तीच क्षमता misuse, failure modes, किंवा escalation बद्दलची अनिश्चितता वाढवू शकते.
Anthropic आणि Pentagon यांच्यातील वादाचा पूर्ण कायदेशीर किंवा राजकीय संदर्भ न्यूजलेटर देत नाही, पण तो त्या वादाला एका व्यापक नमुन्यात ठेवतो: frontier models राज्यहिताची साधने बनत आहेत. एकदा हे झाले की, model safety बद्दलचे युक्तिवाद consumer releases किंवा enterprise tools पुरते मर्यादित राहत नाहीत. ते राष्ट्रीय-सुरक्षा निर्णयप्रक्रियेचा भाग होतात.
हे न्यूजलेटर स्नॅपशॉट काय दाखवते
- AI युद्धात मानवी देखरेख धोरणकर्त्यांना वाटते त्यापेक्षा कमी अर्थपूर्ण असू शकते, हा युक्तिवाद MIT Technology Review ने अधोरेखित केला.
- op-ed नुसार, मुख्य धोका केवळ देखरेखीशिवाय autonomy नाही, तर समज नसलेली देखरेख आहे.
- न्यूजलेटरने असेही सांगितले की White House ला Anthropic चा Mythos model हवा आहे, जरी सार्वजनिक प्रकाशनाबद्दल सुरक्षा चिंता असल्या तरी.
- Anthropic ने Mythos पेक्षा कमी जोखमीचा म्हणून वर्णन केलेला वेगळा model जारी केला आहे.
या जोडलेल्या घडामोडींमध्ये एक मोठा नमुना दिसतो. AI governance ने वर्षानुवर्षे alignment, guardrails, आणि human supervision यांच्या भोवती दिलासा देणारी शब्दावली बांधली आहे. पण प्रत्यक्ष deployments आणि राज्याची मागणी या संकल्पना कार्यक्षम आहेत की केवळ विधानरूप, हे तपासत आहेत. जर एखादी लष्करी command chain स्वतः वापरत असलेल्या प्रणाली पूर्णपणे समजू शकत नसेल, तर मानवी review अधिकृत doctrine सूचित करते त्यापेक्षा खूपच मर्यादित असू शकते. जर सरकारे corporate caution असूनही अधिक शक्तिशाली models मिळवू पाहत असतील, तर safety standards ग्राहक कोण आहे यावर अवलंबून बदलू शकतात.
म्हणूनच The Download ची ही आवृत्ती केवळ newsletter roundup पेक्षा जास्त महत्त्वाची आहे. ती भराच्या बदलाची नोंद करते. मुख्य प्रश्न आता केवळ प्रगत AI युद्धात आणि statecraft मध्ये वापरला जाईल का, इतकाच नाही. तो आधीच वापरला जात आहे. अधिक कठीण प्रश्न असा की सध्याची देखरेख भाषा, procurement norms, आणि safety boundaries त्या वास्तवासाठी पुरेशी मजबूत आहेत का. MIT Technology Review चा सारांश किमान एवढे तरी सांगतो की उत्तर अद्याप अनिश्चित आहे.
हा लेख MIT Technology Review च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.
Originally published on technologyreview.com



