वॉशिंगटन की प्रमुख AI आपूर्तिकर्ता पर कार्रवाई को अदालत का झटका

संयुक्त राज्य सरकार के साथ बढ़ते संघर्ष में Anthropic को एक संघीय न्यायाधीश से बड़ी प्रारंभिक जीत मिली है। न्यायाधीश ने एक प्रारंभिक निषेधाज्ञा जारी की, जो उन आदेशों को लागू करने से एजेंसियों को रोकती है जिनमें कंपनी को सप्लाई-चेन जोखिम बताया गया था, जब तक मामला आगे बढ़ता है। लेकिन कुछ ही घंटों में, पेंटागन नेतृत्व ने सार्वजनिक रूप से पलटवार करते हुए तर्क दिया कि सरकार की Anthropic पर लगी पाबंदी का एक हिस्सा अब भी कायम है।

यह विवाद संघीय खरीद शक्ति और एक AI कंपनी के बीच टकराव पर केंद्रित है, जो यह तय करने की कोशिश कर रही है कि उसके मॉडल का उपयोग कैसे किया जा सकता है। Breaking Defense के अनुसार, जब Anthropic ने सेना द्वारा अपने Claude AI के “सभी वैध उपयोग” की अनुमति देने वाली अनुबंध भाषा स्वीकार करने से इनकार किया, तो राष्ट्रपति डोनाल्ड ट्रंप ने 27 फरवरी को संघीय एजेंसियों को निर्देश दिया कि वे तुरंत Anthropic की तकनीक का उपयोग बंद करें। इसके बाद रक्षा सचिव पीट हेगसेथ ने पोस्ट किया कि अमेरिकी सेना के साथ व्यापार करने वाला कोई भी ठेकेदार, आपूर्तिकर्ता या साझेदार Anthropic के साथ वाणिज्यिक गतिविधि नहीं कर सकता।

फैसला: संभवतः प्रतिशोध, कोई तटस्थ जोखिम निर्णय नहीं

4 मार्च को प्रशासन ने दो औपचारिक पत्र जारी किए, जिनमें अलग-अलग क़ानूनों के तहत Anthropic को सप्लाई-चेन जोखिम घोषित किया गया: एक पूरे संघीय तंत्र पर लागू होता है और दूसरा विशेष रूप से रक्षा विभाग के लिए था। Anthropic ने दो मुकदमे दायर करके दोनों कार्रवाइयों को चुनौती दी, व्यापक संघीय कदम और रक्षा-विशिष्ट नामांकन, दोनों को।

न्यायाधीश रीटा लिन की प्रारंभिक निषेधाज्ञा अब कैलिफ़ोर्निया मामले में प्रतिवादी बनाए गए 17 संघीय एजेंसियों के लिए आदेशों के प्रवर्तन पर रोक लगाती है, जब तक मुकदमा सुलझ नहीं जाता। Breaking Defense द्वारा उद्धृत एक उल्लेखनीय अंश में, लिन ने लिखा कि रिकॉर्ड “मज़बूती से संकेत देता है” कि Anthropic के नामांकन के लिए दिए गए कारण दिखावटी थे और सरकार का असली उद्देश्य अवैध प्रतिशोध था। निषेधाज्ञा देते हुए, उन्होंने निष्कर्ष निकाला कि Anthropic के अपने मुकदमे में सफल होने की संभावना अधिक है, जो इस चरण में एक ऊंचा मानदंड है।

इस भाषा का महत्व है। प्रारंभिक निषेधाज्ञाएँ अंतिम निर्णय नहीं होतीं, लेकिन वे संकेत देती हैं कि अदालत को यह गंभीर संभावना दिखती है कि चुनौती दी गई कार्रवाई अनुचित थी। व्यावहारिक रूप से, यह आदेश संघीय कारोबार से एक प्रमुख AI विक्रेता को अलग-थलग करने के सरकार के उच्च-प्रोफ़ाइल प्रयास को बाधित करता है और यह चेतावनी देता है कि जब वाणिज्यिक विवाद राष्ट्रीय सुरक्षा की भाषा से जुड़ते हैं, तो एजेंसियाँ कितनी दूर जा सकती हैं।

पेंटागन की प्रतिक्रिया बताती है कि लड़ाई अभी खत्म नहीं हुई है

इस निषेधाज्ञा ने मूल राजनीतिक और कानूनी संघर्ष को समाप्त नहीं किया। Breaking Defense के अनुसार, रक्षा उप-सचिव और मुख्य प्रौद्योगिकी अधिकारी एमिल माइकल ने सोशल मीडिया पर तर्क दिया कि आदेश में “दर्जनों तथ्यात्मक त्रुटियाँ” हैं और कहा कि सप्लाई-चेन जोखिम नामांकन सरकार-व्यापी क़ानून के तहत “पूर्ण रूप से प्रभावी” बना हुआ है, जिसके बारे में उनका दावा है कि वह न्यायाधीश लिन के अधिकार क्षेत्र के अधीन नहीं है।

यह प्रतिक्रिया दिखाती है कि सरकार अपनी स्थिति का बचाव किस तरह कई स्तरों पर कर सकती है। एक अदालत के आदेश के बावजूद, अधिकारी यह तर्क देने के लिए तैयार दिखते हैं कि अलग-अलग कानूनी प्राधिकरण ब्लैकलिस्ट के व्यावहारिक प्रभाव का कम से कम कुछ हिस्सा बनाए रखते हैं। इससे ओवरलैप करने वाले मुकदमों, एजेंसियों की परस्पर विरोधी व्याख्याओं और उन ठेकेदारों के लिए जारी अनिश्चितता की संभावना बनती है जिन्हें यह जानना है कि संघीय काम में Anthropic के उपकरण मान्य हैं या नहीं।

यह मामला असामान्य रूप से महत्वपूर्ण है क्योंकि यह केवल एक विक्रेता के व्यावसायिक हितों के बारे में नहीं है। यह इस सवाल पर है कि क्या एक AI कंपनी अपनी मॉडलों के उपयोग पर बहुत व्यापक मानी जाने वाली सैन्य अनुबंध भाषा का विरोध कर सकती है, बिना उन खरीद-प्रक्रिया प्राधिकारों के जरिए हाशिए पर डाले जाने के, जो आम तौर पर अधिक पारंपरिक सप्लाई-चेन चिंताओं से जुड़े होते हैं। यदि अदालतें निष्कर्ष निकालती हैं कि सरकार ने इन प्राधिकरणों का उपयोग नीति विवाद के लिए दंड के रूप में किया, तो यह फैसला संघीय ठेकों में AI शासन संबंधी विवादों की दिशा को प्रभावित कर सकता है।

AI क्षेत्र के लिए इसका महत्व

AI कंपनियों के लिए, Anthropic के साथ यह टकराव इस बात की शुरुआती परीक्षा बनता जा रहा है कि अमेरिकी सरकार उन व्यावसायिक मॉडल प्रदाताओं पर कितना प्रभाव डालना चाहती है जो संघीय कारोबार भी चाहते हैं और तैनाती की सीमाएँ भी तय करना चाहते हैं। राष्ट्रीय सुरक्षा के संदर्भ में यह तनाव खास तौर पर तीखा है, जहाँ एजेंसियाँ अधिकतम लचीलापन चाह सकती हैं और विक्रेता निगरानी, हथियारों के उपयोग या प्रतिष्ठा जोखिम से जुड़ी सुरक्षा-सीमाएँ बनाए रखना चाह सकते हैं।

यह मुकदमा “सप्लाई-चेन जोखिम” शब्द पर भी दबाव डालता है। परंपरागत रूप से, यह वाक्यांश विश्वसनीयता, समझौता, विदेशी प्रभाव या महत्वपूर्ण प्रणालियों में छिपी कमजोरियों से जुड़ी चिंताओं को दर्शाता है। यहाँ, न्यायाधीश की प्रारंभिक राय से संकेत मिलता है कि इस नामांकन का उपयोग शायद किसी और चीज़ के लिए किया गया: अनुबंध शर्तों पर विवाद के बाद प्रतिशोध। यदि यह व्याख्या कायम रहती है, तो यह मामला AI प्रदाताओं के विरुद्ध, जो कुछ सरकारी मांगों को अस्वीकार करते हैं, खरीद उपकरणों के आक्रामक उपयोग को सीमित कर सकता है।

फिलहाल, नतीजा मिश्रित है लेकिन स्पष्ट रूप से महत्वपूर्ण है। Anthropic को एक अर्थपूर्ण प्रारंभिक आदेश मिला है, और सरकार को मामला आगे बढ़ने तक प्रमुख कार्रवाइयों पर विराम लगाने को कहा गया है। साथ ही, पेंटागन अधिकारी यह संकेत दे रहे हैं कि वे निषेधाज्ञा के व्यावहारिक प्रभावों को उतनी व्यापकता से स्वीकार नहीं करते, जितनी Anthropic शायद करता है।

यह उद्योग के लिए एक स्पष्ट संदेश छोड़ता है। सरकार में AI को नियंत्रित करने वाली कानूनी संरचना अभी वास्तविक समय में लिखी जा रही है, और इसके कुछ सबसे महत्वपूर्ण नियम विधायिका या एजेंसी मार्गदर्शन से नहीं, बल्कि अनुबंध भाषा, प्रतिशोध और कार्यपालिका शक्ति की सीमाओं पर अदालतों में लड़ी जा रही कड़ी लड़ाइयों से सामने आ सकते हैं।

यह लेख Breaking Defense की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.