दूरगामी प्रभाव वाला एक समझौता

यह सिर्फ दो हफ्ते पहले की बात है जब OpenAI ने अमेरिकी रक्षा विभाग को वर्गीकृत सैन्य वातावरण में अपने AI सिस्टम का उपयोग करने की अनुमति देने के लिए एक ऐतिहासिक समझौता किया। यह समझौता AI शोधकर्ताओं, हथियार नियंत्रण विशेषज्ञों और नागरिक स्वतंत्रता वकीलों के बीच महत्वपूर्ण ध्यान और चिंताएं दोनों उत्पन्न करता है। अमेरिकी सेनाएं ईरान के विरुद्ध सक्रिय सैन्य संचालन में लगी हैं — खार्ग द्वीप पर हमलों सहित — समझौते के निहितार्थ अधिकांश की प्रत्याशा से कहीं अधिक तत्काल हैं।

समझौते के मुख्य पहलू ज्ञात हैं: OpenAI सैन्य को वर्गीकृत सेटिंग्स में अपने मॉडल का उपयोग करने देगा, सैम अल्टमैन ने सार्वजनिक रूप से कहा है कि समझौता सैन्य को कंपनी की तकनीक से स्वायत्त हथियार बनाने की अनुमति नहीं देता है, और यह भी दावा करते हैं कि व्यवस्था घरेलू निगरानी के लिए इसके उपयोग को रोकती है। लेकिन समझौते की वास्तविक शर्तों की जांच से पता चलता है कि दोनों प्रतिबंध मुख्य रूप से पेंटागन की स्वयं की नीतियों द्वारा लागू किए जाते हैं — नीतियां जो अंतर्राष्ट्रीय मानकों के अनुसार काफी सहज हैं।

पेंटागन की स्वायत्त हथियार नीतियां वास्तव में क्या कहती हैं

रक्षा विभाग की स्वायत्त हथियार प्रणालियों पर नीति आवश्यक करती है कि घातक स्वायत्त हथियार हत्या निर्णयों पर उचित मानव निर्णय बनाए रखें। इस भाषा की आलोचकों ने लगातार नोट किया है कि यह परिभाषित नहीं करता कि उचित का क्या अर्थ है, प्रत्येक व्यक्तिगत लक्ष्य निर्णय को मंजूरी देने के लिए मानव की आवश्यकता नहीं है, और स्पष्ट रूप से अर्ध-स्वायत्त प्रणालियों की अनुमति देता है जहां एक मानव लक्ष्य श्रेणियां या हमले के पैरामीटर को पहले से अनुमोदित करता है बिना प्रत्येक विशिष्ट संलग्नता को अनुमोदित किए।

यह OpenAI के सार्वजनिक कथन — हम सैन्य को स्वायत्त हथियार बनाने नहीं देंगे — और जो समझौता वास्तव में अनुमति देता है, के बीच एक महत्वपूर्ण अंतराल बनाता है। पेंटागन के स्वयं के मानकों के तहत, एक AI प्रणाली जो सेंसर डेटा को संसाधित करती है, लक्ष्यों की पहचान करती है और हमलों को निष्पादित करती है बिना प्रति-शॉट मानव प्राधिकार के, अगर एक मानव पहले से लक्ष्य नियमों को अनुमोदित करता है तो अनुपालक के रूप में योग्य हो सकती है। क्या OpenAI की मॉडल को बिना समझौते का उल्लंघन किए ऐसी प्रणाली में एकीकृत किया जा सकता है यह सार्वजनिक रूप से स्पष्ट नहीं है।

ईरान परीक्षा का मामला है

ईरान के साथ चल रहा संघर्ष इन प्रश्नों को परिकल्पना के बजाय ठोस बनाता है। अमेरिकी सेंट्रल कमांड फारस की खाड़ी क्षेत्र में हमले के संचालन का संचालन कर रहा है, ईरानी नौसैनिक असममित खतरों के प्रतिक्रियाओं को समन्वित कर रहा है, और एक जटिल युद्धक्षेत्र में खुफिया संग्रह का प्रबंधन कर रहा है। इनमें से प्रत्येक गतिविधि में AI अनुप्रयोग की श्रेणियां शामिल हैं जहां OpenAI की मॉडल संभावित रूप से एकीकृत हो सकते हैं।

खुफिया पक्ष पर, बड़ी भाषा मॉडल तेजी से कई स्रोतों से जानकारी को संश्लेषित करने, विदेशी भाषा संचार का अनुवाद करने और संरचित डेटा में पैटर्न की पहचान करने में सक्षम साबित हुई हैं — ये सभी कार्य सैन्य खुफिया विश्लेषण के लिए प्रासंगिक हैं। ये अनुप्रयोग वाणिज्यिक AI के प्राथमिक सैन्य उपयोगों में से समझे जाते हैं और स्वायत्त लक्ष्य निर्धारण की तुलना में कम नैतिक चिंताएं उत्पन्न करते हैं।

अधिक चिंताजनक लक्ष्य पहचान या युद्ध क्षति मूल्यांकन में संभावित अनुप्रयोग हैं, जहां AI प्रणालियां सैन्य संपत्ति की पहचान करने, आंदोलनों को ट्रैक करने या हमले के परिणामों का मूल्यांकन करने के लिए इमेजरी या सिग्नल खुफिया को संसाधित कर सकते हैं। ये क्षेत्र हैं जहां निर्णय समर्थन उपकरण और स्वायत्त प्रणाली के बीच का अंतर धुंधला हो जाता है — और जहां OpenAI के समझौते की विशिष्ट भाषा यह निर्धारित करेगी कि दिया गया अनुप्रयोग अनुमत है या नहीं।

निगरानी प्रतिबंध और इसकी सीमाएं

अल्टमैन का दावा कि समझौता OpenAI की तकनीक के घरेलू निगरानी के उपयोग को रोकता है वह अपनी आवाज से अधिक जटिल है। वर्णित प्रतिबंध घरेलू निगरानी — अमेरिकी नागरिकों पर डेटा संग्रह और विश्लेषण — पर लागू होता है लेकिन विदेशी खुफिया संग्रह को संबोधित नहीं करता है। सैन्य संचालन के संदर्भ में, प्रतिद्वंद्वी सैन्य संचार की निगरानी, जहाज की गतिविधियों का ट्रैकिंग, और ईरानी शासन संचार की निगरानी सभी विदेशी खुफिया संग्रह के रूप में योग्य होंगे और घरेलू निगरानी प्रतिबंध द्वारा कवर नहीं किए जाएंगे।

नागरिक स्वतंत्रता वकील जो घरेलू निगरानी चिंताओं पर ध्यान केंद्रित करते हैं वे विदेशी खुफिया अनुप्रयोगों को प्राथमिकता नहीं दे सकते हैं जो सैन्य कमांडर सबसे मूल्यवान पाते हैं। लेकिन सार्वजनिक संचार में दोनों को मिश्रित करना यह सुझाव देता है कि OpenAI के सार्वजनिक कथन समझौते को सक्षम करने वाली सैन्य अनुप्रयोगों की पूरी श्रृंखला को पूरी तरह से नहीं पकड़ते हैं।

OpenAI की प्रेरणाएं क्या प्रतीत होती हैं

OpenAI वाणिज्यिक AI विकास और सैन्य अनुप्रयोग के बीच तनाव को नेविगेट करने वाली पहली बड़ी तकनीक कंपनी नहीं है। Google को 2018 में अपनी Project Maven अनुबंध पर महत्वपूर्ण आंतरिक विरोध का सामना करना पड़ा, अंत में इसे नवीनीकृत नहीं करने का फैसला किया। माइक्रोसॉफ्ट और अमेज़न ने कुछ आंतरिक असहमति के बावजूद रक्षा अनुबंधों का विस्तार करना जारी रखा है।

OpenAI का वर्गीकृत सैन्य बाजार में प्रवेश करने का निर्णय सरकारी AI अनुबंधों के लिए प्रतिस्पर्धा करना कंपनी की दीर्घकालिक स्थिति के लिए महत्वपूर्ण है, विशेष रूप से जैसा कि यह Anthropic, Google DeepMind, और रक्षा-केंद्रित AI कंपनियों जैसे Scale AI और Palantir के साथ प्रतिस्पर्धा करता है। पेंटागन की AI बजट तेजी से बढ़ रहा है, और जो कंपनी जल्दी विश्वसनीय सरकारी AI भागीदार के रूप में खुद को स्थापित करती है वह दीर्घकालिक महत्वपूर्ण लाभ सुरक्षित कर सकती है।

यह लेख MIT Technology Review द्वारा रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें