पेंटागॉनची एआय मोहीम आता नव्या टप्प्यात गेली आहे

अमेरिकी संरक्षण विभागाने सांगितले आहे की वर्गीकृत लष्करी संगणक नेटवर्कमध्ये कृत्रिम बुद्धिमत्ता आणण्यासाठी सात तंत्रज्ञान कंपन्यांशी करार झाले आहेत. यामुळे एआय किती वेगाने कार्यकारी निर्णयप्रक्रियेचा भाग बनत आहे हे सूचित होते. दिलेल्या अहवालात नमूद केलेल्या कंपन्या आहेत: Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection, आणि SpaceX.

जटिल कार्यकारी वातावरणात लढाऊ कर्मचाऱ्यांच्या निर्णयक्षमतेला बळ देणे हे उद्दिष्ट असल्याचे पेंटागॉन सांगते. ही मांडणी व्यापक असली तरी तिचे परिणाम ठोस आहेत. एआय आता केवळ प्रयोगात्मक back-office साधन म्हणून पाहिले जात नाही. ते mission execution जवळ नेले जात आहे, जिथे गती, अर्थनिर्णयन, लॉजिस्टिक्स, आणि लक्ष्य-संबंधित workflow सर्वच उच्च दावांचे आहेत.

हे करार काय सूचित करतात

संरक्षण विभाग अनेक वर्षांपासून एआय स्वीकारण्याचा वेग वाढवत आहे, आणि हे करार त्या प्रवृत्तीला बळ देतात. दिलेल्या स्रोत्यानुसार, एआय लक्ष्य ओळखणे आणि त्यावर प्रहार करण्यासाठी लागणारा वेळ कमी करू शकते, तसेच देखभाल आणि supply chain संघटित करण्यास मदत करू शकते. हे मिश्रणच संरक्षण संस्थांना आकर्षित करते: लष्करी आघाडी बऱ्याचदा शत्रूपेक्षा जलद माहिती हाताळण्यावर आणि मोठ्या तांत्रिक प्रणाली तणावाखाली सुरू ठेवण्यावर अवलंबून असते.

व्यावसायिक एआय पुरवठादारांना वर्गीकृत वातावरणात आणणे हे एक व्यावहारिक वास्तवही दर्शवते. सर्वात प्रगत एआय क्षमता मोठ्या प्रमाणावर खासगी क्षेत्रात विकसित होत आहे. सर्व संबंधित साधने अंतर्गत तयार करण्याऐवजी, पेंटागॉन आघाडीचे model निर्माते, cloud provider, semiconductor कंपन्या, आणि system operators यांना आपल्या procurement क्षेत्रात आणत आहे.

नैतिक प्रश्न अद्याप मिटलेले नाहीत

त्याच वेळी, धोरणात्मक वातावरण अजूनही अनिश्चितच असल्याचे अहवाल स्पष्ट करतो. एआय अमेरिकन नागरिकांच्या गोपनीयतेत हस्तक्षेप करू शकते किंवा रणांगणावर यंत्रांना लक्ष्य निवडू देऊ शकते, अशी चिंता टीकाकार व्यक्त करत आहेत. नव्या करारांमधील एका कंपनीने काही परिस्थितींमध्ये मानवी देखरेख आवश्यक असल्याचे सांगितले, जो महत्त्वाचा तपशील आहे कारण स्वयंचलन कुठे थांबले पाहिजे याबाबत कंत्राटदारांमध्येही एकमत नाही, हे त्यातून दिसते.

या चिंता सैद्धांतिक नाहीत. इतर संघर्षांमधील एआय-सक्षम लष्करी ऑपरेशन्समुळे, अपूर्ण माहिती असलेल्या नाजूक, झपाट्याने बदलणाऱ्या परिस्थितींमध्ये ही प्रणाली वापरली गेली तर नागरिकांना हानी होऊ शकते, अशी भीती वाढली आहे, असे स्रोत सांगतो. म्हणूनच मानवी निर्णय, ऑपरेटर प्रशिक्षण, आणि प्रणालींच्या विश्वासार्हतेवरची चर्चा केंद्रस्थानी आहे.

वेग विरुद्ध नियंत्रण

स्रोतामध्ये उद्धृत Georgetown University च्या Center for Security and Emerging Technology मधील Helen Toner या मुख्य तणावाचे उत्तम वर्णन करतात: आधुनिक युद्धात कमांड सेंटर्समधील लोक गुंतागुंतीचे, वेगाने बदलणाऱ्या परिस्थितीत कठीण निर्णय घेतात. एआय माहितीचा सारांश देऊ शकते किंवा surveillance feeds विश्लेषित करू शकते, पण उपयुक्तता overtrust चा धोका दूर करत नाही.

यामुळे पेंटागॉनपुढे अंमलबजावणीची कठीण समस्या उभी राहते. लष्कर वेगवान deployment इच्छिते, कारण ते एआयला strategic advantage मानते. पण जलद rollout मुळे operator प्रशिक्षण, doctrine ठरवणे, आणि प्रणाली चुकीच्या, अनिश्चित, किंवा intended scope बाहेर वापरली गेली तर त्यासाठी सुरक्षा-उपाय तयार करण्याच्या हळू प्रक्रियेशी संघर्ष होऊ शकतो.

व्यवहारात कठीण प्रश्न एआय वापरले जाईल का हा नाही. ते आधीच वापरले जात आहे. खरा प्रश्न असा आहे की माणसे किती discretion राखतात, outputs कसे पडताळले जातात, आणि चुकीचे परिणाम अपरिवर्तनीय ठरू शकतील अशा वातावरणात model-generated सूचनांकडे commanders कसे पाहतात.

Anthropic ची अनुपस्थिती ठळक आहे

कंत्राटदारांची यादी एआय उद्योगातील राजकीय आणि नैतिक दुभंगही दाखवते. Anthropic विशेषतः अनुपस्थित आहे. दिलेल्या अहवालानुसार, Trump प्रशासनाशी कंपनीचा वाद लष्करी वापराभोवती असलेल्या सुरक्षा आणि नैतिक चिंतांवर केंद्रित होता. आपले तंत्रज्ञान पूर्णपणे स्वयंचलित शस्त्रांमध्ये किंवा अमेरिकन नागरिकांवर देखरेखीसाठी वापरले जाणार नाही, अशी हमी कंपनीने मागितली होती; तर Defense Secretary Pete Hegseth यांनी लष्कराला कोणत्याही कायदेशीर उद्देशासाठी प्रणाली वापरण्याचा पर्याय राखण्यावर भर दिला.

हा मतभेद महत्त्वाचा आहे, कारण तो व्यापक संरक्षण करारांमध्ये सहभागी होण्यास तयार असलेल्या कंपन्या आणि अधिक मर्यादित अटी लावू पाहणाऱ्या कंपन्यांमधील खोल विभाजन दाखवतो. एआय प्रणाली अधिक सक्षम होत गेल्यावर, त्या करारमर्यादा उपलब्ध सर्वात महत्त्वाच्या governance tools पैकी एक बनू शकतात.

  • वर्गीकृत पेंटागॉन नेटवर्कसाठी सात कंपन्या एआय क्षमता पुरवतील.
  • जटिल कार्यकारी परिस्थितीत निर्णयप्रक्रियेला मदत करण्यासाठी ही साधने आहेत, असे अधिकारी सांगतात.
  • स्वायत्तता, गोपनीयता, नागरिकांना होणारी हानी, आणि ऑपरेटरचा अतिविश्वास याबद्दल चिंता कायम आहेत.
  • Anthropic ची अनुपस्थिती लष्करी guardrail संदर्भातील अपूर्ण उद्योग-विवाद अधोरेखित करते.

अनुप्रयुक्त एआयसाठी निर्णायक चाचणी

हे करार महत्त्वाचे आहेत, कारण ते एआयला ग्राहक-अनुप्रयोग आणि उत्पादकता सॉफ्टवेअरपलीकडे अशा क्षेत्रात नेतात जिथे कोणतेही तंत्रज्ञान जाऊ शकते. लष्करी संस्था वेग, प्रमाण, आणि माहितीचा फायदा यांना महत्त्व देतात. एआय हे तिन्ही वचन देते. पण त्याचबरोबर ते अस्पष्टता, brittle-ness, आणि चुकले तरी आत्मविश्वासपूर्ण दिसू शकणाऱ्या प्रणालींवर विसंबण्याचा मोहही आणते.

म्हणूनच पेंटागॉनचे ताजे करार केवळ procurement news नाहीत. अपयशाची किंमत कार्यक्षमता कमी होण्यात नव्हे, तर जीव, जबाबदारी, आणि धोरणात्मक स्थैर्य यांत मोजली जाते, अशा वेळी प्रगत एआयचे शासन कसे केले जाईल, याची ही सुरुवातीची चाचणी आहे.

हा लेख Fast Company च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.