चर्चा मंजुरीच्या टप्प्यांपासून डिझाइन आर्किटेक्चरकडे वळत आहे
लष्करी संस्था अधिकाधिक स्वायत्त आणि अधिक agentic प्रणालींमध्ये गुंतवणूक करत असताना, मानवी नियंत्रणाचा प्रश्न घोषणांपेक्षा system design चा अधिक विषय बनत आहे. Breaking Defense मध्ये वर्णन केलेल्या एका नवीन प्रस्तावानुसार, मशीनने आधीच युद्धभूमीचे चित्र तयार केले असेल, उपलब्ध पर्याय कमी केले असतील, आणि अंतिम मंजुरीची विनंती येण्यापूर्वीच माणसाच्या निवडी मर्यादित केल्या असतील, तर “human in the loop” हे नेहमीचे सूत्र पुरेसे नाही.
लेखक या कल्पनेला “Synthesized Command & Control” असे म्हणतात. अर्थपूर्ण मानवी नियंत्रण निर्णय प्रक्रियेत खूप आधीच अंतर्भूत केले पाहिजे, हा त्यांचा मुख्य दावा आहे. AI-सक्षम साखळीच्या शेवटी एखाद्या व्यक्तीकडून हल्ला मंजूर किंवा नाकारण्याची अपेक्षा ठेवण्याऐवजी, कमांडरच्या पसंती आणि कार्यात्मक हेतू सुरुवातीपासूनच पद्धतशीरपणे सॉफ्टवेअरमध्ये बांधले गेले पाहिजेत, असे ते म्हणतात.
शेवटची मंजुरी का उशिरा ठरू शकते
मानक मॉडेलवरील लेखाची टीका थेट आहे. जर AI प्रणालीला force positioning, target prioritization, किंवा recommendation framing यांसारखे upstream निर्णय machine speed ने घेण्याची परवानगी दिली, तर शेवटी माणसाची भूमिका दिसते त्यापेक्षा अरुंद असू शकते. कमांडर तांत्रिकदृष्ट्या अजूनही कारवाईला अधिकृत करू शकतो, पण स्वयंचलित प्रणालीने निर्णय ज्या परिस्थितीत घेतला जातो ती परिस्थिती आधीच आकारलेली असेल.
मानव-यंत्र teamwork मधील हाच मूलभूत ताण आहे. प्रत्येक टप्प्यावर मानवी मंजुरी अनिवार्य केली तर AI च्या गतीचे फायदे नाहीसे होऊ शकतात. आणि फक्त शेवटीच मंजुरी घेतली तर माणूस औपचारिक अधिकार राखूनही, मोठ्या ऑपरेशनल logic वरचा व्यावहारिक प्रभाव गमावू शकतो.
प्रस्ताव: फक्त परवानगी नाही, तर हेतू encode करणे
प्रस्तावित उत्तर म्हणजे मानवी पसंती आधीच encode करणे. या मॉडेलमध्ये, commander’s intent सारख्या कल्पना अल्गोरिथ्ममध्येच constraints आणि guidance म्हणून रूपांतरित केल्या जातील. उद्दिष्ट केवळ असा checkpoint तयार करणे नाही जिथे माणूस मशीन थांबवू शकेल, तर मशीनचा option-generation process सुरुवातीपासूनच मानवी निर्णयाने मर्यादित राहील याची खात्री करणे आहे.
हा दृष्टिकोन AI governance विचारसरणीत व्यापक बदल दर्शवतो. प्रश्न फक्त इतकाच नाही की प्रणालीला मध्येच थांबवता येते का. प्रश्न हा आहे की system चे reasoning space इतक्या लवकर align झाले आहे का, की त्याची गती आणि scale मानवी अधिकाराशी सुसंगत राहतील.
लष्करी AI वर्गांमध्ये अजूनही स्पष्टता नाही
सध्याच्या defense AI landscape मधील एका संकल्पनात्मक समस्येकडेही लेख लक्ष वेधतो: automatic, semi-autonomous, autonomous, आणि agentic autonomous यांसारख्या संज्ञांभोवती कायम असलेली अस्पष्टता. या परिभाषात्मक अस्पष्टतेमुळे procurement, oversight, आणि doctrine गुंतागुंतीचे होतात. एकाच label ला वेगवेगळ्या घटकांनी वेगवेगळे अर्थ दिले, तर control, accountability, आणि स्वीकार्य वापरावरील वाद तांत्रिक प्रश्नांपर्यंत पोहोचण्याआधीच गोंधळात पडू शकतात.
जिथे stake आणि गुंतवणूक मोठी आहे अशा परिस्थितीत हे महत्त्वाचे ठरते. लेखात Defense Autonomous Warfare Group साठी सुमारे $55 billion funding request चा उल्लेख आहे, आणि US defense leadership च्या वरिष्ठ पातळीवरील लक्षाची नोंद केली आहे. खर्च आणि राजकीय लक्ष वाढत असताना, operational categories बद्दलची अस्पष्टता ही केवळ अर्थाची समस्या राहत नाही. ती governance risk बनते.
पूर्ण समाधान नाही, तर एक चौकट
हा प्रस्ताव प्रत्येक समस्या सोडवत नाही. मानवी हेतू code मध्ये रूपांतरित करणे कठीण आहे, आणि command intent स्वतःही अस्पष्ट, वादग्रस्त, किंवा बदलत्या battlefield conditionsच्या अधीन असू शकतो. तरीही, हा युक्तिवाद साध्या “human approval” कथनातील खरी कमजोरी दाखवतो. शेवटच्या टप्प्यातील approval button औपचारिक गरज पूर्ण करू शकतो, पण substantive control जपू शकत नाही.
म्हणूनच ही चर्चा लष्करी वर्तुळांपलीकडेही महत्त्वाची आहे. ती अनेक क्षेत्रांत दिसणाऱ्या एका व्यापक AI प्रश्नाला स्पर्श करते: system workflow मध्ये कोणत्या टप्प्यावर मानवी मूल्ये खरेच outcomes घडवतात? लेखकांचे उत्तर असे आहे की उच्च-गती संघर्षाच्या वातावरणात शेवटपर्यंत थांबणे पुरेसे नाही. लष्करी AI जर मानवी निर्णयाच्या मर्यादेत राहणार असेल, तर तो निर्णय सिस्टमने काम सुरू करण्यापूर्वीच सिस्टममध्ये design केला पाहिजे.
हा लेख Breaking Defense च्या रिपोर्टिंगवर आधारित आहे. मूळ लेख वाचा.
Originally published on breakingdefense.com

