கோட்பாட்டிலிருந்து கொள்கைக்கு நகரும் விவாதம்
MIT Technology Review-இன் ஏப்ரல் 17 பதிப்பு, The Download, அரசாங்கங்களும் தொழில்நுட்ப நிறுவனங்களும் தவிர்க்க முடியாமல் எதிர்கொள்ளும் ஒரு கருப்பொருளை மையமாகக் கொண்டது: AI அமைப்புகள் முக்கியமான முடிவுகளில் மேலும் ஆழமாக நுழைந்து கொண்டிருக்கின்றன, ஆனால் கண்காணிப்பு குறித்த பொது மொழி அதற்கேற்ப நகராமல் இருக்கலாம். செய்திமடல், AI போரில் “humans in the loop” என்பது மாயையாக இருக்கலாம் என்ற கருத்து கொண்ட ஒரு op-ed-ஐ, Anthropic-இன் புதிய Mythos model-க்கு White House அணுகலை விரும்புகிறது என்ற செய்தியுடன் இணைத்தது; ஆனால் நிறுவனம் பாதுகாப்பு காரணங்களால் அதை பொது வெளியீட்டில் இருந்து தடுத்து வைத்திருந்தது.
இரண்டையும் ஒன்றாகப் பார்க்கும்போது, மேலும் வசதியற்ற ஒரு சூழல் தெரிகிறது. ஒரு உரையாடல், இராணுவ AI மீது மனிதக் கட்டுப்பாடு உண்மையிலேயே உள்ளதா அல்லது பெரும்பாலும் குறியீட்டுக்கானதா என்பதை கேட்கிறது. மற்றொன்று, frontier systems-ஐ உருவாக்கும் நிறுவனங்கள் விசேஷ எச்சரிக்கை காட்டினாலும், அரசாங்கங்கள் அவற்றைப் பயன்படுத்த அழுத்தம் கொடுக்கலாம் என்பதைக் காட்டுகிறது. தனித்தனியாக இவற்றில் எதுவும் கொள்கை விவாதத்தை முடிக்காது; ஆனால் ஒன்றாக அவை, உரையாடல் எவ்வளவு வேகமாக சுருக்கமான கோட்பாடுகளைத் தாண்டி நகர்ந்துவிட்டது என்பதை காட்டுகின்றன.
“human in the loop” என்ற சொல்லின் சிக்கல்
செய்திமடலின்படி, AI ஏற்கனவே நிஜமான போர்களை வடிவமைத்து வருகிறது. அந்த உண்மை, Uri Maoz எழுதிய featured op-ed-இல் உள்ள வாதத்துக்கு அடித்தளம் அமைக்கிறது; அதில் மனிதர்களை “in the loop” வைத்திருப்பது என்ற ஆறுதலான மொழி ஆழமான பிரச்சினையிலிருந்து கவனத்தைத் திருப்பக்கூடும் என்று கூறப்படுகிறது. Pentagon guidelines கீழ், மனிதக் கண்காணிப்பு பொறுப்புணர்வு, சூழல், மற்றும் பாதுகாப்பை வழங்க வேண்டும். ஆனால் op-ed-இன் வாதம், உண்மையான அபாயம் இயந்திரங்கள் கண்காணிப்பு இல்லாமல் செயல்படுவதாக மட்டும் அல்ல; மனித மேற்பார்வையாளர்கள் தாங்கள் கண்காணிக்கும் அமைப்புகள் உண்மையில் என்ன செய்கின்றன அல்லது “என்ன நினைக்கின்றன” என்பதையே புரிந்துகொள்ள முடியாமல் இருப்பதுதான்.
இந்த விமர்சனம் முக்கியமானது, ஏனெனில் “human in the loop” என்பது இராணுவ அமைப்புகளில் autonomy குறித்த அச்சங்களை அமைதிப்படுத்தும் இயல்புநிலை கொள்கைச் சொற்றொடராக மாறியுள்ளது. அந்த சொல் கட்டுப்பாடு, மீளத்தன்மை, மற்றும் அர்த்தமுள்ள தீர்ப்பை உணர்த்துகிறது. ஆனால் மனிதரின் பங்கு, உட்புற reasoning தெளிவற்ற அமைப்புகள் உருவாக்கும் output-களை மட்டுமே பார்க்கும் நிலைக்கு சுருங்கிவிட்டால், ஒருவரின் இருப்பு பாதுகாப்பை உறுதி செய்யும் அளவுக்கு போதுமானதாக இருக்காது.
op-ed மனிதர்கள் முக்கியமல்ல என்று கூறவில்லை. தற்போது உள்ள கண்காணிப்பு வடிவங்கள், அழுத்தத்தின் கீழ் AI அமைப்புகள் புரிந்துகொள்ள கடினமாக இருக்கும்போது போதுமானதாக இருக்காமல் போகலாம் என்று அது கூறுகிறது. இது வழக்கமான automation fears-ஐவிட கடுமையான வாதம். கொள்கைச் சவால் என்பது சங்கிலியின் இறுதியில் ஒரு மனிதன் button-push செய்வதைப் பாதுகாப்பது மட்டுமல்ல; supervising மனிதருக்கு model எவ்வாறு பரிந்துரையை எட்டியது என்ற தெளிவு இல்லாத, அல்லது operational tempo காரணமாக ஆய்வுக்கான நேரம் குறையும் சூழல்களுக்கு பாதுகாப்புகளை வடிவமைப்பதுதான்.
MIT Technology Review-இன் சுருக்கம், அறிவியல் ஒரு வழியை அளிக்கக்கூடும் என்றும் AI warfare-க்கு புதிய safeguards தேவை என்றும் கூறுகிறது. சுருக்கமான வடிவில்கூட, அந்த வலியுறுத்தல் வெளிப்படையானது. விவாதம் இனி மனிதர்கள் ஈடுபட வேண்டுமா வேண்டாமா என்பதிலேயே மட்டும் இல்லை. உண்மையான கட்டுப்பாடாக ஏற்றுக்கொள்ளப் போதுமான அர்த்தமுள்ள involvement எது என்பதில்தான் அதிகமாக இருக்கிறது.
அரசுத் தேவை model restraint-உடன் மோதுகிறது
நியூஸ்லெட்டர் மேலும், Anthropic மீது முன்பு எடுத்த நடவடிக்கைகளுக்குப் பிறகும் White House அதன் புதிய Mythos model-க்கு அணுகலை விரும்புகிறது என்று குறிப்பிட்டது. Trump நிர்வாக அதிகாரிகள் அந்த model-ஐப் பெற பேசிக் கொண்டிருப்பதாக சுருக்கம் கூறுகிறது; Anthropic அதை பொதுவெளியீட்டுக்கு மிகவும் ஆபத்தானது என்று கருதியிருந்தது. நிறுவனம் சமீபத்தில் வேறு ஒரு model-ஐ வெளியிட்டதாகவும், அதை Mythos-ஐவிட குறைந்த ஆபத்தானது என்று விவரித்ததாகவும் அது குறிப்பிடுகிறது.
இந்த விவரங்கள், பொதுவெளியீட்டு தரநிலைகளுக்கும் அரசுத் தேவைக்கும் இடையிலான விரிவடையும் பிளவைச் சுட்டுகின்றன. ஒரு நிறுவனம் risk profile காரணமாக ஒரு system-ஐத் தடுத்து வைத்தால், ஆனால் அதிகாரிகள் அதைப் பெற விரும்பினால், “பொது பயன்பாட்டுக்கு மிகவும் ஆபத்தானது” மற்றும் “அரசுப் பயன்பாட்டுக்கு ஏற்றது” என்ற எல்லை ஒரு நேரடி கொள்கைச் சிக்கலாக மாறுகிறது. இது procurement பற்றிய கேள்வி மட்டுமல்ல; பொறுப்புணர்வு பற்றியதும் கூட. அரசாங்கங்கள் மூலோபாய முன்னிலை காரணமாக அதிக திறன் கொண்ட models-ஐ விரும்பலாம், ஆனால் அதே திறன் misuse, failure modes, அல்லது escalation பற்றிய uncertainty-ஐ அதிகரிக்கவும் முடியும்.
Anthropic மற்றும் Pentagon இடையேயான சர்ச்சையின் முழு சட்ட அல்லது அரசியல் சூழலை நியூஸ்லெட்டர் வழங்கவில்லை; ஆனால் அது அந்த சர்ச்சையை ஒரு பெரிய வடிவத்தின் உள்ளே வைத்துள்ளது: frontier models அரசுத் தேவையின் கருவிகளாக மாறுகின்றன. அது நடந்தவுடன், model safety குறித்த வாதங்கள் consumer வெளியீடுகள் அல்லது enterprise tools-களில் மட்டும் சிக்கிக்கொள்வதில்லை. அவை national-security முடிவெடுப்பின் ஒரு பகுதியாகிவிடுகின்றன.
இந்த செய்திமடல் சுருக்கம் என்ன காட்டுகிறது
- AI போரில் மனிதக் கண்காணிப்பு, கொள்கை வடிவமைப்பாளர்கள் நினைப்பதைவிட குறைவான அர்த்தமுள்ளதாக இருக்கலாம் என்ற வாதத்தை MIT Technology Review முன்னிறுத்தியது.
- op-ed-இன் படி, மைய அபாயம் வெறும் கண்காணிப்பு இல்லாத autonomy அல்ல; புரிதல் இல்லாத கண்காணிப்புதான்.
- White House Anthropic-இன் Mythos model-ஐ விரும்புகிறது என்றும், ஆனால் பாதுகாப்பு கவலைகளால் நிறுவனம் அதை பொதுவெளியீட்டில் இருந்து தடுத்து வைத்தது என்றும் நியூஸ்லெட்டர் தெரிவித்தது.
- Anthropic Mythos-ஐவிட குறைந்த ஆபத்தானது என்று விவரித்த மற்றொரு model-ஐ வெளியிட்டுள்ளது.
இந்த இணைக்கப்பட்ட வளர்ச்சிகளில் ஒரு பெரிய வடிவம் தெரிகிறது. AI governance, alignment, guardrails, மற்றும் human supervision பற்றிய ஆறுதலான சொற்களை பல ஆண்டுகளாக கட்டியெழுப்பியுள்ளது. ஆனால் நிஜப் பயன்பாடுகளும் அரசுத் தேவைவும், அந்தக் கருத்துகள் செயல்பாட்டுக்குரியவையா அல்லது வெறும் வாக்கியங்களா என்று சோதித்து வருகின்றன. ஒரு இராணுவ command chain தன் பயன்படுத்தும் அமைப்புகளை முழுமையாகப் புரிந்துகொள்ள முடியாவிட்டால், மனித review அதிகாரப்பூர்வ doctrine சொல்வதைவிட பலவீனமாக இருக்கலாம். அரசாங்கங்கள் corporate caution இருந்தபோதும் அதிக சக்திவாய்ந்த models-க்கு அணுகல் நாடினால், safety standards வாடிக்கையாளர் யார் என்பதைப் பொறுத்து மாறக்கூடும்.
அதனால்தான் The Download இன் இந்த பதிப்பு வெறும் செய்திமடல் தொகுப்பை விட அதிக முக்கியத்துவம் கொண்டது. இது கவனம் மாறுவதைப் பதிவு செய்கிறது. மையக் கேள்வி இனி முன்னேறிய AI போரிலும் statecraft-இலும் பயன்படுத்தப்படுமா என்பதல்ல. அது ஏற்கனவே பயன்படுத்தப்படுகிறது. மேலும் கடினமான கேள்வி, தற்போதைய கண்காணிப்பு மொழி, procurement norms, மற்றும் safety boundaries அந்த நிஜத்துக்கு போதுமான வலுவானவையா என்பதே. MIT Technology Review கொடுத்த சுருக்கம், குறைந்தபட்சமாக, பதில் இன்னும் தெளிவில்லை என்பதைச் சொல்கிறது.
இந்தக் கட்டுரை MIT Technology Review செய்தியறிக்கையை அடிப்படையாகக் கொண்டது. மூலக் கட்டுரையைப் படிக்கவும்.
Originally published on technologyreview.com




