விவாதம் அனுமதி நிலையங்களிலிருந்து வடிவமைப்பு கட்டமைப்புக்கு மாறுகிறது

ராணுவ அமைப்புகள் அதிகமாக தன்னாட்சி கொண்ட, மேலும் agentic தன்மை அதிகரித்துள்ள அமைப்புகளில் முதலீடு செய்கையில், மனிதக் கட்டுப்பாடு குறித்த கேள்வி முழக்கங்களைவிட அதிகமாக system design பற்றியதாக மாறி வருகிறது. Breaking Defense விவரித்த ஒரு புதிய முன்மொழிவு, இயந்திரம் ஏற்கனவே போர்க்களப் படத்தை வடிவமைத்து, கிடைக்கக்கூடிய விருப்பங்களை குறைத்து, இறுதி அனுமதி கோரிக்கை வருவதற்குள் மனிதரின் தேர்வுகளை கட்டுப்படுத்தி விட்டால், “human in the loop” என்ற பொதுவான வடிவமைப்பு போதாது என்று வாதிடுகிறது.

இந்த யோசனையை அவர்கள் “Synthesized Command & Control” என்று அழைக்கின்றனர். முடிவெடுக்கும் செயல்முறையின் மிக முன்கட்டத்தில் இருந்தே அர்த்தமுள்ள மனிதக் கட்டுப்பாடு உட்பொதிக்கப்பட வேண்டும் என்பதே அவர்களின் மையக் கருத்து. AI-செயல்படுத்தப்பட்ட சங்கிலியின் இறுதியில் ஒரு நபரை தாக்குதலை அங்கீகரிக்க அல்லது மறுக்கக் கேட்பதற்குப் பதிலாக, தளபதியின் முன்னுரிமைகளும் செயல்பாட்டு நோக்கமும் ஆரம்பத்திலிருந்தே முறையாக மென்பொருளில் கட்டமைக்கப்பட வேண்டும் என்று அவர்கள் கூறுகின்றனர்.

இறுதி அனுமதி ஏன் மிகத் தாமதமாக இருக்கலாம்

தரமான மாதிரியைப் பற்றிய கட்டுரையின் விமர்சனம் நேரடியானது. AI அமைப்புக்கு படை நிலைநிறுத்தம், இலக்கு முன்னுரிமை நிர்ணயம், அல்லது பரிந்துரை வடிவமைப்பு போன்ற upstream தேர்வுகளை இயந்திர வேகத்தில் செய்ய அனுமதி வழங்கப்பட்டால், இறுதியில் மனிதரின் பங்கு வெளிப்படுவதற்கும் குறைவாக இருக்கலாம். ஒரு தளபதி தொழில்நுட்ப ரீதியாக நடவடிக்கையை அனுமதிக்கலாம்; ஆனால் தானியங்கி அமைப்பு முடிவு எடுக்கப்படும் சூழ்நிலைகளை ஏற்கனவே வடிவமைத்த பிறகே அது நடக்கும்.

மனித-இயந்திர குழுப்பணியில் உள்ள அடிப்படை பதற்றம் இதுதான். ஒவ்வொரு படியிலும் மனித அனுமதியை கட்டாயப்படுத்தினால், AI-யின் வேக நன்மைகள் மங்கிவிடலாம். இறுதியில் மட்டும் அனுமதியை கட்டாயப்படுத்தினால், மனிதர் முறையான அதிகாரத்தைத் தக்கவைத்துக்கொண்டாலும், செயல்பாட்டின் பெரிய தர்க்கத்தில் நடைமுறைச் செல்வாக்கை இழக்கலாம்.

முன்மொழிவு: அனுமதியை மட்டும் அல்ல, நோக்கத்தை குறியிடுதல்

முன்மொழியப்பட்ட தீர்வு மனித விருப்பங்களை முன்கூட்டியே குறியிடுவதாகும். இந்த மாதிரியில், தளபதியின் நோக்கம் போன்ற கருத்துகள் அல்காரிதத்தின் உள்ளேயே கட்டுப்பாடுகளாகவும் வழிகாட்டுதலாகவும் மாற்றப்படும். நோக்கம் வெறும் மனிதன் இயந்திரத்தை நிறுத்தக்கூடிய ஒரு checkpoint உருவாக்குவது அல்ல; மாறாக, இயந்திரத்தின் விருப்பங்கள் உருவாக்கும் செயல்முறை தொடக்கத்திலிருந்தே மனித தீர்ப்பால் வரையறுக்கப்பட்டிருக்க வேண்டும் என்பதே.

இந்த அணுகுமுறை AI governance சிந்தனையில் பெரிய மாற்றத்தை பிரதிபலிக்கிறது. கேள்வி என்பது ஒரு அமைப்பை நடுவில் நிறுத்த முடியுமா என்பது மட்டும் அல்ல. அதன் reasoning space முன்கூட்டியே போதுமான அளவு ஒத்திசைக்கப்பட்டுள்ளதா, அதன் வேகமும் அளவும் மனித அதிகாரத்துடன் இணக்கமாக இருக்கிறதா என்பதும்கூட.

ராணுவ AI வகைப்பாடுகளில் இன்னும் தெளிவு இல்லை

தற்போதைய defense AI சூழலின் உள்ளே நிலவும் ஒரு கருத்தியல் பிரச்சினையையும் கட்டுரை சுட்டிக்காட்டுகிறது: automatic, semi-autonomous, autonomous, மற்றும் agentic autonomous போன்ற சொற்களைச் சுற்றியுள்ள தொடர்ச்சியான தெளிவின்மை. இந்த வரையறைத் தளர்வு கொள்முதல், மேற்பார்வை, மற்றும் doctrine ஆகியவற்றை சிக்கலாக்குகிறது. ஒரே label-ஐ வெவ்வேறு தரப்பினர் வெவ்வேறு விதமாகப் பொருள்படுத்தினால், control, accountability, மற்றும் ஏற்றுக்கொள்ளத்தக்க பயன்பாடு குறித்த விவாதங்கள் தொழில்நுட்ப கேள்விகளுக்கு முன்பே குழப்பமாகலாம்.

இது stakes மற்றும் முதலீடுகள் உயர்ந்துள்ள சூழலில் முக்கியமானது. கட்டுரை Defense Autonomous Warfare Group-க்கு சுமார் $55 billion funding request இருப்பதாக குறிப்பிட்டு, உயர்நிலை US defense leadership-இன் கவனத்தையும் சுட்டிக்காட்டுகிறது. செலவும் அரசியல் கவனமும் அதிகரிக்கும் நிலையில், செயல்பாட்டு வகைப்பாடுகள் குறித்த மங்கலான நிலை வெறும் சொற்பொருள் பிரச்சினையாக இருக்காது. அது ஒரு governance risk ஆக மாறுகிறது.

முழுமையான தீர்வல்ல, ஒரு கட்டமைப்பு

இந்த முன்மொழிவு எல்லாப் பிரச்சினைகளையும் தீர்க்காது. மனித நோக்கத்தை code-ஆக மாற்றுவது கடினம்; command intent என்பதும் தானே தெளிவற்றதாக, எதிர்வினையாக, அல்லது மாறும் போர்க்கள சூழ்நிலைகளுக்கு உட்பட்டதாக இருக்கலாம். இருந்தாலும், இந்த வாதம் எளிமையான “human approval” கதைகளின் உண்மையான பலவீனத்தை அடையாளம் காட்டுகிறது. இறுதி கட்ட அனுமதி பொத்தான் ஒரு முறையான தேவையை பூர்த்தி செய்யலாம்; ஆனால் உண்மையான கட்டுப்பாட்டை பாதுகாக்கத் தவறலாம்.

அதனால்தான் இந்த விவாதம் ராணுவ வட்டங்களைத் தாண்டியும் முக்கியத்துவம் பெறுகிறது. இது பல துறைகளில் தோன்றும் ஒரு பரந்த AI கேள்வியைத் தொடுகிறது: ஒரு அமைப்பின் workflow-இல் எந்த கட்டத்தில் மனித மதிப்புகள் உண்மையில் விளைவுகளை வடிவமைக்கின்றன? உயர்வேக மோதல் சூழல்களில் இறுதி வரை காத்திருப்பது போதாது என்பதே ஆசிரியர்களின் பதில். ராணுவ AI மனித தீர்ப்பால் கட்டுப்படுத்தப்பட்டிருக்க வேண்டுமெனில், அந்தத் தீர்ப்பே அமைப்பு செயல்படத் தொடங்குவதற்கு முன்பே அதில் வடிவமைக்கப்பட வேண்டும்.

இந்தக் கட்டுரை Breaking Defense செய்தி அறிக்கையை அடிப்படையாகக் கொண்டது. மூலக் கட்டுரையைப் படிக்கவும்.

Originally published on breakingdefense.com