पेंटागन की एआई पहल अब एक नए चरण में पहुंच गई है
अमेरिकी रक्षा विभाग का कहना है कि उसने सात तकनीकी कंपनियों के साथ समझौते किए हैं, ताकि वर्गीकृत सैन्य कंप्यूटर नेटवर्क में कृत्रिम बुद्धिमत्ता लाई जा सके। यह कदम संकेत देता है कि एआई को कितनी तेजी से परिचालन निर्णय-निर्माण का हिस्सा बनाया जा रहा है। प्रस्तुत रिपोर्ट में जिन कंपनियों का नाम है, वे हैं Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection, और SpaceX.
पेंटागन का कहना है कि लक्ष्य जटिल परिचालन वातावरण में सैनिकों के निर्णय-निर्माण को बेहतर बनाना है। यह वाक्यांश भले व्यापक हो, लेकिन इसके निहितार्थ ठोस हैं। एआई अब केवल एक प्रयोगात्मक बैक-ऑफिस उपकरण के रूप में नहीं देखा जा रहा है। इसे मिशन-निष्पादन के और करीब रखा जा रहा है, जहां गति, व्याख्या, लॉजिस्टिक्स, और लक्ष्य-सम्बंधी वर्कफ़्लो सभी उच्च दांव पर होते हैं।
समझौते क्या संकेत देते हैं
रक्षा विभाग वर्षों से एआई को अपनाने की रफ्तार बढ़ा रहा है, और ये समझौते उस रुझान को और मजबूत करते हैं। प्रस्तुत स्रोत के अनुसार, एआई लक्ष्य पहचानने और उन पर प्रहार करने में लगने वाला समय घटा सकता है, साथ ही रखरखाव और आपूर्ति शृंखलाओं को संगठित करने में भी मदद कर सकता है। यही मिश्रण बताता है कि रक्षा एजेंसियां इसमें रुचि क्यों रखती हैं: सैन्य बढ़त अक्सर इस पर निर्भर करती है कि जानकारी को विरोधी से तेज़ कैसे संभाला जाए और बड़े तकनीकी सिस्टमों को दबाव में कैसे चालू रखा जाए।
व्यावसायिक एआई प्रदाताओं को वर्गीकृत वातावरण में लाना एक व्यावहारिक सच्चाई को भी दर्शाता है। सबसे उन्नत एआई क्षमता का बड़ा हिस्सा निजी क्षेत्र में विकसित हो रहा है। हर संबंधित उपकरण को भीतर ही बनाने के बजाय, पेंटागन प्रमुख मॉडल निर्माताओं, क्लाउड प्रदाताओं, सेमीकंडक्टर फर्मों, और सिस्टम ऑपरेटरों को अपनी खरीद प्रक्रिया में ला रहा है।
नैतिक सवाल अभी खत्म नहीं हुए हैं
साथ ही, रिपोर्ट यह भी स्पष्ट करती है कि नीतिगत माहौल अभी भी अनिश्चित है। आलोचकों को चिंता है कि एआई अमेरिकियों की निजता का उल्लंघन कर सकता है या युद्धक्षेत्र में मशीनों को लक्ष्य चुनने दे सकता है। नई व्यवस्थाओं में शामिल एक कंपनी ने कहा कि उसके अनुबंध में कुछ परिस्थितियों में मानव निगरानी अनिवार्य है, जो महत्वपूर्ण है क्योंकि यह दिखाता है कि ठेकेदारों के बीच भी यह तय नहीं है कि स्वचालन को कहां रोकना चाहिए।
ये चिंताएं अमूर्त नहीं हैं। स्रोत के अनुसार, अन्य संघर्षों में एआई-सक्षम सैन्य अभियानों ने इस डर को और तेज कर दिया है कि अधूरी जानकारी वाली नाजुक, तेज़-तर्रार परिस्थितियों में इन प्रणालियों के इस्तेमाल से नागरिक नुकसान बढ़ सकता है। इसी कारण मानव निर्णय, ऑपरेटर प्रशिक्षण, और सिस्टम की विश्वसनीयता पर बहस केंद्र में बनी हुई है।
गति बनाम नियंत्रण
स्रोत में उद्धृत जॉर्जटाउन विश्वविद्यालय के सेंटर फॉर सिक्योरिटी एंड इमर्जिंग टेक्नोलॉजी की हेलेन टोनेर इस मूल तनाव को अच्छी तरह समझाती हैं: आधुनिक युद्ध में कमांड सेंटरों में बैठे लोग जटिल, तेजी से बदलती स्थितियों में कठिन फैसले लेते हैं। एआई जानकारी को संक्षेपित करने या निगरानी फ़ीड का विश्लेषण करने में मदद कर सकता है, लेकिन उपयोगिता से अंधा भरोसा करने का जोखिम खत्म नहीं होता।
यह पेंटागन के लिए एक कठिन कार्यान्वयन समस्या पैदा करता है। सैन्य तेज़ तैनाती चाहता है, क्योंकि वह एआई को एक रणनीतिक लाभ मानता है। लेकिन तेजी से rollout ऑपरेटर प्रशिक्षण, सिद्धांत तय करने, और गलत, अनिश्चित, या अपने निर्धारित दायरे से बाहर इस्तेमाल होने वाले सिस्टमों के लिए सुरक्षा-उपाय बनाने के धीमे काम से टकरा सकता है।
व्यावहारिक तौर पर असली सवाल यह नहीं है कि एआई इस्तेमाल होगा या नहीं। यह पहले से हो रहा है। सवाल यह है कि मनुष्य कितनी विवेकाधीन शक्ति रखते हैं, आउटपुट की पुष्टि कैसे की जाती है, और कमांडरों को उन वातावरणों में मॉडल-जनित सुझावों को कैसे देखना सिखाया जाता है जहां गलतियां अपरिवर्तनीय हो सकती हैं।
Anthropic की अनुपस्थिति अलग दिखती है
ठेकेदारों की सूची एआई उद्योग की राजनीतिक और नैतिक दरारों को भी उजागर करती है। Anthropic विशेष रूप से अनुपस्थित है। प्रस्तुत रिपोर्ट के अनुसार, कंपनी का ट्रंप प्रशासन के साथ विवाद सैन्य उपयोग से जुड़ी सुरक्षा और नैतिक चिंताओं पर केंद्रित था। कंपनी ने आश्वासन मांगा था कि उसकी तकनीक पूरी तरह स्वायत्त हथियारों या अमेरिकियों की निगरानी के लिए इस्तेमाल नहीं होगी, जबकि रक्षा सचिव Pete Hegseth ने ज़ोर दिया कि सैन्य को किसी भी वैध उद्देश्य के लिए प्रणालियों का उपयोग करने का विकल्प रहना चाहिए।
यह असहमति इसलिए मायने रखती है क्योंकि यह उन कंपनियों के बीच गहरी खाई दिखाती है जो व्यापक रक्षा व्यवस्थाओं में शामिल होने को तैयार हैं और उन कंपनियों के बीच जो सीमित शर्तें रखना चाहती हैं। जैसे-जैसे एआई प्रणालियां और सक्षम होंगी, अनुबंध की ये सीमाएं उपलब्ध सबसे महत्वपूर्ण प्रशासनिक उपकरणों में से एक बन सकती हैं।
- सात कंपनियां वर्गीकृत पेंटागन नेटवर्क के लिए एआई क्षमताएं देंगी।
- घोषित उद्देश्य जटिल परिचालन सेटिंग्स में निर्णय-निर्माण का समर्थन करना है।
- निजता, स्वायत्तता, नागरिक नुकसान, और ऑपरेटर के अत्यधिक भरोसे को लेकर चिंताएं बनी हुई हैं।
- Anthropic की अनुपस्थिति सैन्य सुरक्षा-सीमाओं पर उद्योग के अधूरे विवाद को दिखाती है।
व्यावहारिक एआई के लिए एक निर्णायक परीक्षा
ये समझौते इसलिए महत्वपूर्ण हैं क्योंकि वे एआई को उपभोक्ता अनुप्रयोगों और उत्पादकता सॉफ्टवेयर से आगे ले जाकर उन सबसे महत्वपूर्ण क्षेत्रों में से एक में रखते हैं, जहां कोई भी तकनीक जा सकती है। सैन्य संगठन गति, पैमाने, और सूचना लाभ को महत्व देते हैं। एआई ये तीनों वादा करता है। लेकिन यह अस्पष्टता, नाजुकता, और उन प्रणालियों पर भरोसा करने की प्रवृत्ति भी लाता है जो गलत होने पर भी आत्मविश्वासी दिख सकती हैं।
इसका मतलब है कि पेंटागन के नवीनतम अनुबंध केवल खरीद समाचार नहीं हैं। वे इस बात की शुरुआती परीक्षा हैं कि उन्नत एआई को कैसे नियंत्रित किया जाएगा, जब विफलता की कीमत दक्षता के नुकसान में नहीं, बल्कि जीवन, जवाबदेही, और रणनीतिक स्थिरता में मापी जाएगी।
यह लेख Fast Company की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.
