ठंडे युद्ध का उपकरण नई तकनीक के युग के लिए

U.S. Department of Defense और दुनिया की अग्रणी artificial intelligence कंपनियों में से एक के बीच संबंध अपने चरम बिंदु पर पहुंच गया है। रक्षा सचिव Pete Hegseth ने Anthropic को एक कठोर अंतिम नोटिस जारी किया है: शुक्रवार तक अपनी AI तकनीक के अप्रतिबंधित सैन्य उपयोग की अनुमति दें, या Pentagon की आपूर्ति श्रृंखला से पूरी तरह निष्कासन का सामना करें।

यह धमकी Tuesday को Washington में एक तनावपूर्ण बैठक के दौरान आई, जहां Hegseth ने Anthropic के CEO Dario Amodei को बुलाया। स्रोतों के अनुसार, यह कंपनी के गोपनीय संचालन के लिए अपने AI मॉडल्स को सेना को अप्रतिबंधित पहुंच देने से इनकार के बारे में एक संघर्षपूर्ण चर्चा थी। सबसे विवादास्पद मांगों में घरेलू surveillance क्षमताओं और सीधी मानव निरीक्षण के बिना lethal autonomous missions के प्रावधान थे।

शायद सबसे चौंकाने वाली बात यह थी कि Hegseth ने Defense Production Act का आह्वान किया, जो एक Cold War-era कानून है जो राष्ट्रपति को राष्ट्रीय रक्षा प्राथमिकताओं को पूरा करने के लिए घरेलू उद्योगों को बाध्य करने का व्यापक अधिकार देता है। मूल रूप से कारखानों को युद्धकालीन उत्पादन में बदलने के लिए डिज़ाइन किया गया, कानून को कभी भी किसी AI कंपनी को अपनी तकनीक सौंपने के लिए मजबूर करने के लिए उपयोग नहीं किया गया है - यह धमकी अमेरिकी तकनीक नीति के इतिहास में अभूतपूर्व है।

दबाव में Anthropic की सुरक्षा-प्रथम रुख

Anthropic ने लंबे समय से अपने सुरक्षा अनुसंधान और जिम्मेदार तैनाती पर जोर देकर AI उद्योग में खुद को अलग किया है। यह कंपनी, पूर्व OpenAI शोधकर्ताओं Dario और Daniela Amodei द्वारा स्थापित, constitutional AI की अवधारणा के चारों ओर अपने ब्रांड को बनाया है - ऐसी प्रणालियां जो दुरुपयोग को रोकने के लिए निर्मित नैतिक guardrails के साथ डिज़ाइन की गई हैं।

यह सुरक्षा-प्रथम दर्शन अब कंपनी को Pentagon की सैन्य संचालन में AI एकीकरण की बढ़ती भूख के साथ टकराव के रास्ते पर रख गया है। जबकि Anthropic ने सभी रक्षा अनुबंधों का विरोध नहीं किया है, इसने कुछ अनुप्रयोगों के चारों ओर दृढ़ रेखाएं खींची हैं। विशेष रूप से वे जो सार्थक मानव नियंत्रण के बिना autonomous lethal force को शामिल करते हैं और घरेलू जनसंख्या को लक्ष्य करने वाले बड़े पैमाने पर surveillance कार्यक्रम।

कंपनी की स्थिति AI उद्योग के भीतर नैतिक सीमाओं को कहां खींचना है इस बारे में व्यापक बहस को दर्शाती है। OpenAI और Google सहित अन्य बड़ी AI कंपनियों ने भी सैन्य अनुबंधों के साथ जूझा है, हालांकि अधिकांश रक्षा एजेंसियों के साथ संलग्न होने की शर्तों पर बातचीत करने के लिए अधिक इच्छुक रहे हैं। Anthropic की कठोर रेखा ने इसे artificial intelligence को weaponize करने के Washington के तेजी से आक्रामक प्रयास में एक lightning rod बना दिया है।

Defense Production Act: एक असामान्य हथियार

Defense Production Act को 1950 में Korean War के शुरुआती चरणों के दौरान कानून में हस्ताक्षर किए गए थे। इसका मूल उद्देश्य सीधा था: सुनिश्चित करना कि अमेरिकी उद्योग सैन्य आवश्यकताओं का समर्थन करने के लिए उत्पादन को तेजी से बदल सकें। दशकों में, इसे semiconductor निर्माण से लेकर महामारी चिकित्सा आपूर्ति श्रृंखलाओं तक सब कुछ के लिए आह्वान किया गया है।

लेकिन किसी AI कंपनी को अपने मॉडल्स तक पहुंच प्रदान करने के लिए DPA को लागू करना एक मौलिक रूप से अलग तरह के हस्तक्षेप का प्रतिनिधित्व करता है। भौतिक वस्तुओं के विपरीत, AI मॉडल्स intellectual property हैं जिनकी क्षमताओं और जोखिमें गहराई से जुड़ी हुई हैं। किसी कंपनी को अपनी तकनीक से सुरक्षा guardrails को हटाने के लिए मजबूर करना ऐसे सवाल उठाता है जो पारंपरिक procurement विवादों से कहीं आगे जाते हैं।

कानूनी विशेषज्ञों ने नोट किया है कि DPA के ऐसे उपयोग को तुरंत अदालत की चुनौतियों का सामना करना पड़ सकता है। कानून उत्पादन और आपूर्ति श्रृंखला प्राथमिकताओं के लिए डिज़ाइन किया गया था, न कि किसी कंपनी की आंतरिक सुरक्षा नीतियों को ओवरराइड करने के लिए कि इसकी तकनीक कैसे तैनात की जाती है। इसे लागू करने का कोई भी प्रयास पूरे technology क्षेत्र के लिए दूरगामी प्रभाव वाली एक precedent स्थापित कर सकता है।

उद्योग की प्रतिक्रिया और व्यापक निहितार्थ

इस संघर्ष ने Silicon Valley में झटके भेजे हैं। अन्य AI कंपनियां बारीकी से देख रही हैं, जानते हुए कि परिणाम सरकार कि कैसे निजी AI क्षेत्र के साथ interact करती है, इसके लिए नई मानदंड स्थापित कर सकते हैं। कई उद्योग नेताओं ने निजी तौर पर चिंता व्यक्त की है कि Pentagon की मांगों को स्वीकार करना उस सुरक्षा अनुसंधान को कमजोर कर सकता है जिसे कई लोग catastrophic AI misuse को रोकने के लिए आवश्यक मानते हैं।

Congressional प्रतिक्रिया मिली-जुली है। Armed Services समितियों के hawks ने Hegseth की स्थिति का समर्थन किया है, यह तर्क देते हुए कि राष्ट्रीय सुरक्षा को कॉर्पोरेट सुरक्षा वरीयताओं से ऊपर प्राथमिकता दी जानी चाहिए। अन्य लोग, विशेष रूप से Senate Commerce Committee के सदस्य, ने सावधानी दी है कि AI कंपनियों पर दबाव डालना प्रतिभा और innovation को विदेश में चला सकता है, अंततः America की प्रतिस्पर्धी स्थिति को कमजोर कर सकता है।

European Union ने भी ध्यान दिया है। EU अधिकारियों ने इस confrontation को AI governance के लिए अपने स्वयं के अधिक regulatory दृष्टिकोण का समर्थन करने के साक्ष्य के रूप में इंगित किया है। एक senior diplomat ने नोट किया कि यह episode राजनीतिक नियुक्तियों की इच्छा पर AI सुरक्षा निर्णयों को छोड़ने के जोखिमों को रेखांकित करता है।

आगे क्या होता है

Friday की deadline बहुत बड़ी है। अगर Anthropic compliance से इनकार करता है, Hegseth अपनी धमकी के अनुरूप आगे बढ़ सकता है कि कंपनी को defense procurement channels से हटा दिया जाए। यह एक महत्वपूर्ण revenue stream को काट देगा और अन्य AI कंपनियों को एक संदेश भेजेगा। Defense Production Act का विकल्प मेज पर बना हुआ है लेकिन अनिश्चित कानूनी परिणामों के साथ एक कहीं अधिक नाटकीय escalation का प्रतिनिधित्व करेगा।

Anthropic के लिए, यह गणना अस्तित्वगत है। समर्पण अपनी कॉर्पोरेट पहचान को परिभाषित करने वाले सुरक्षा सिद्धांतों को कमजोर कर सकता है और उन कर्मचारियों के साथ विश्वास को नष्ट कर सकता है जो कंपनी की नैतिक प्रतिबद्धताओं के कारण विशेष रूप से शामिल हुए हैं। प्रतिरोध कंपनी को न केवल सरकारी अनुबंध खो सकता है बल्कि political goodwill भी खो सकता है, एक समय में जब AI regulation को Washington में सक्रिय रूप से आकार दिया जा रहा है।

परिणाम जो भी हो, इस confrontation ने एक बात स्पष्ट कर दी है: AI कंपनियों और सरकार के बीच honeymoon खत्म हो गया है। AI नीति पर विनम्र सहयोग का युग hardball negotiations के रास्ते को दे रहा है, जहां stakes को quarterly earnings में नहीं बल्कि इस मौलिक सवाल में मापा जाता है कि मानव इतिहास की सबसे शक्तिशाली तकनीक को कैसे नियंत्रित किया जाएगा।

यह लेख Ars Technica की reporting पर आधारित है। मूल लेख पढ़ें