बहस मंज़ूरी बिंदुओं से डिज़ाइन आर्किटेक्चर की ओर स्थानांतरित हो रही है

जैसे-जैसे सैन्य संगठन स्वायत्त और तेजी से एजेंटिक प्रणालियों में अधिक निवेश कर रहे हैं, मानव नियंत्रण का प्रश्न नारों से कम और सिस्टम डिज़ाइन से अधिक जुड़ता जा रहा है। Breaking Defense द्वारा वर्णित एक नया प्रस्ताव तर्क देता है कि “human in the loop” का सामान्य सूत्रीकरण पर्याप्त नहीं है, यदि मशीन पहले ही युद्धक्षेत्र की तस्वीर बना चुकी हो, उपलब्ध विकल्पों को सीमित कर चुकी हो, और अंतिम मंज़ूरी के अनुरोध के आने से पहले ही मनुष्य की पसंदों को संकुचित कर चुकी हो।

लेखक अपनी इस धारणा को “Synthesized Command & Control” कहते हैं। उनका केंद्रीय दावा है कि सार्थक मानव नियंत्रण को निर्णय प्रक्रिया में बहुत पहले ही अंतर्निहित किया जाना चाहिए। उनके अनुसार, AI-सक्षम श्रृंखला के अंत में किसी व्यक्ति से हमले को मंज़ूर या अस्वीकार कराने के बजाय, कमांडर की प्राथमिकताओं और परिचालन मंशा को शुरुआत से ही व्यवस्थित रूप से सॉफ़्टवेयर में शामिल किया जाना चाहिए।

अंतिम मंज़ूरी बहुत देर से क्यों हो सकती है

मानक मॉडल की लेख की आलोचना सीधी है। यदि किसी AI सिस्टम को बल-स्थिति निर्धारण, लक्ष्य प्राथमिकता तय करने, या सिफारिशों की प्रस्तुति जैसे अपस्ट्रीम निर्णय मशीन-गति से करने की अनुमति दी जाती है, तो अंत में मनुष्य की भूमिका जितनी दिखती है उतनी व्यापक नहीं रह जाती। एक कमांडर अभी भी तकनीकी रूप से कार्रवाई को अधिकृत कर सकता है, लेकिन केवल तब, जब स्वचालित प्रणाली पहले ही उन परिस्थितियों को आकार दे चुकी हो जिनमें निर्णय लिया जाता है।

मानव-मशीन टीमिंग में यही मूल तनाव है। हर चरण पर मानव मंज़ूरी अनिवार्य करें, तो AI की गति-संबंधी बढ़त समाप्त हो सकती है। केवल अंत में मंज़ूरी अनिवार्य करें, तो मनुष्य औपचारिक अधिकार तो बनाए रखता है, लेकिन ऑपरेशन के बड़े तर्क पर उसका व्यावहारिक प्रभाव कम हो सकता है।

प्रस्ताव: केवल अनुमति नहीं, मंशा को एन्कोड करना

प्रस्तावित उत्तर मानव प्राथमिकताओं को पूर्व-नियोजित रूप से एन्कोड करना है। इस मॉडल में, कमांडर की मंशा जैसे विचारों को स्वयं एल्गोरिथ्म के भीतर सीमाओं और मार्गदर्शन में बदला जाएगा। उद्देश्य केवल ऐसा चेकपॉइंट बनाना नहीं है जहाँ मनुष्य मशीन को रोक सके, बल्कि यह सुनिश्चित करना है कि मशीन की विकल्प-निर्माण प्रक्रिया शुरू से ही मानव निर्णय से सीमित हो।

यह दृष्टिकोण AI गवर्नेंस सोच में एक व्यापक बदलाव को दर्शाता है। प्रश्न केवल यह नहीं है कि किसी सिस्टम को बीच में रोका जा सकता है या नहीं। प्रश्न यह है कि क्या सिस्टम का तर्क-क्षेत्र इतनी जल्दी संरेखित है कि उसकी गति और पैमाना मानव अधिकार के साथ संगत बने रहें।

सैन्य AI श्रेणियों में अभी भी स्पष्टता की कमी है

लेख वर्तमान रक्षा AI परिदृश्य के भीतर एक वैचारिक समस्या की ओर भी इशारा करता है: automatic, semi-autonomous, autonomous, और agentic autonomous जैसे शब्दों को लेकर लगातार बनी हुई अस्पष्टता। परिभाषा की यह कमी खरीद, निरीक्षण, और सिद्धांत-निर्माण को जटिल बनाती है। यदि अलग-अलग लोग एक ही लेबल से अलग अर्थ निकालते हैं, तो नियंत्रण, जवाबदेही, और स्वीकार्य उपयोग पर बहसें तकनीकी प्रश्नों पर पहुँचने से पहले ही उलझ सकती हैं।

यह ऐसे संदर्भ में महत्वपूर्ण है जहाँ दांव और निवेश बड़े हैं। लेख लगभग $55 billion के उस फंडिंग अनुरोध का उल्लेख करता है जो Defense Autonomous Warfare Group के लिए है, और अमेरिकी रक्षा नेतृत्व के वरिष्ठ स्तर पर उच्च-स्तरीय ध्यान को नोट करता है। जैसे-जैसे खर्च और राजनीतिक ध्यान बढ़ रहा है, परिचालन श्रेणियों को लेकर अस्पष्टता केवल अर्थगत मुद्दा नहीं रह जाती। यह एक गवर्नेंस जोखिम बन जाती है।

एक ढांचा, अंतिम समाधान नहीं

यह प्रस्ताव हर समस्या का समाधान नहीं करता। मानव मंशा को कोड में बदलना कठिन है, और कमांड की मंशा स्वयं भी अस्पष्ट, विवादित, या बदलती युद्धक्षेत्र स्थितियों के अधीन हो सकती है। फिर भी, यह तर्क सरल “human approval” कथाओं की एक वास्तविक कमजोरी को उजागर करता है। अंतिम चरण का एक मंज़ूरी बटन औपचारिक आवश्यकता पूरी कर सकता है, लेकिन सार्थक नियंत्रण को सुरक्षित नहीं रख सकता।

इसीलिए यह बहस सैन्य दायरे से आगे भी महत्वपूर्ण है। यह AI से जुड़ा एक व्यापक प्रश्न उठाती है जो कई क्षेत्रों में दिखाई देता है: सिस्टम के वर्कफ़्लो में किस बिंदु पर मानव मूल्य वास्तव में परिणामों को आकार देते हैं? लेखकों का उत्तर है कि तेज़-गति वाले संघर्ष वातावरण में अंत तक प्रतीक्षा करना पर्याप्त नहीं है। यदि सैन्य AI को मानव निर्णय के अधीन ही रहना है, तो उस निर्णय को सिस्टम के काम शुरू करने से पहले ही उसमें डिज़ाइन करना होगा।

यह लेख Breaking Defense की रिपोर्टिंग पर आधारित है। मूल लेख पढ़ें.

Originally published on breakingdefense.com