பாதுகாப்பு சோதனைகளை கேலி செய்வதிலிருந்து அவற்றை மீண்டும் கட்டியெழுப்புவதற்கு

முன்னணி AI கண்காணிப்பு குறித்து டிரம்ப் நிர்வாகம் தன் நிலைப்பாட்டை கடுமையாக மாற்றியுள்ளது. மேம்பட்ட மாதிரிகளை வெளியீட்டுக்கு முன்பும் பிறகும் அரசாங்க பாதுகாப்பு சோதனைகளுக்கு உட்படுத்த Google DeepMind, Microsoft மற்றும் xAI உடன் புதிய ஒப்பந்தங்களை அது கையெழுத்திட்டுள்ளது. இந்த மாற்றம் அது என்ன செய்கிறது என்பதற்காக மட்டும் அல்ல, நிர்வாகத்தின் முந்தைய நிலைப்பாட்டிலிருந்து இது எவ்வளவு நேரடியாக விலகுகிறது என்பதாலும் முக்கியமானது.

Ars Technica-வின் தகவலின்படி, அதிபர் டொனால்ட் டிரம்ப் முன்பு பைடன் காலத்துடன் தொடர்புடைய தன்னார்வ AI பாதுகாப்பு சோதனைகளை புதுமைக்கு தடையாக இருக்கும் ஒழுங்குமுறை அத்துமீறலாகக் கருதினார். பதவியேற்ற உடனேயே, நிர்வாகம் US AI Safety Institute-ஐ Center for AI Standards and Innovation, அல்லது CAISI, என மறுபெயரிட்டு, தலைப்பிலிருந்து “safety” என்ற சொல்லை நீக்கியது; இது ஜோ பைடனுக்கு அளித்த கூரிய குத்து என மூலத்தில் விவரிக்கப்பட்டுள்ளது.

இப்போது அதே நிர்வாகம் தான் முன்பு விமர்சித்த கொள்கை வடிவமைப்பின் ஒரு பதிப்பை மீண்டும் நிறுவுகிறது.

Mythos தூண்டுதல்

தோன்றிய திருப்புமுனை Anthropic தனது சமீபத்திய Claude Mythos மாதிரியை வெளியிட வேண்டாம் என்ற முடிவாக இருந்தது. Ars Technica-வின் தகவலின்படி, தீய நோக்குடையவர்கள் அதன் மேம்பட்ட சைபர் பாதுகாப்பு திறன்களை தவறாக பயன்படுத்தக்கூடும் என்பதால் அந்த மாதிரி வெளியீட்டுக்குப் பொருந்தாத அளவுக்கு ஆபத்தானதாக நிறுவனம் மதிப்பிட்டது. அந்த முடிவு வாஷிங்டனில் வலுவான தாக்கத்தை ஏற்படுத்தியதாக தெரிகிறது.

மூல உரையின் படி, வெள்ளை மாளிகை தேசிய பொருளாதார கவுன்சில் இயக்குநர் Kevin Hassett, டிரம்ப் விரைவில் மேம்பட்ட AI அமைப்புகள் வெளியீட்டுக்கு முன் அரசாங்க சோதனையை கடந்து செல்ல வேண்டும் என கட்டாயப்படுத்தும் ஒரு executive order-ஐ வெளியிடலாம் என்று Fortune-க்கு கூறினார். அது நடந்தால், நிர்வாகம் புதுப்பிக்கப்பட்ட தன்னார்வ ஒத்துழைப்பிலிருந்து ஒரு அதிகாரப்பூர்வ வெளியீட்டுக்கு முன் மதிப்பீட்டு முறைக்குச் செல்லும்.

இந்த அரசியல் விபரீதத்தை கவனிக்காமல் விடுவது கடினம். முன்னேற்றத்திற்கு தடையாக பாதுகாப்பு கண்காணிப்பை காட்டிய வெள்ளை மாளிகை, இப்போது ஒரு முன்னணி மாதிரி கடுமையான கவலைகளை எழுப்பியதால், அதன் உருவாக்குநர் அதைப் பிறப்பிக்காமல் வைத்ததைத் தொடர்ந்து, ஒரு கட்டாயத்தை பரிசீலிக்கிறது.

CAISI பெரிய பங்கு எடுத்துக்கொள்கிறது

CAISI-யின் சொந்த அறிவிப்பில், புதிய ஒப்பந்தங்கள் பைடனின் முந்தைய கொள்கையை “build on” செய்கின்றன என்று தெளிவாகக் கூறப்பட்டது. அந்த மொழி முக்கியமானது, ஏனெனில் அது ஒரு வாக்குவாத இடைவெளிக்குப் பிறகும் தொடர்ச்சியை ஒப்புக்கொள்கிறது. நிர்வாகம் பிராண்டிங்கை மாற்றியிருக்கலாம், ஆனால் கட்டமைக்கப்பட்ட மாதிரி மதிப்பீட்டின் செயல்பாட்டு தேவை மீண்டும் நிலைநிறுத்தப்பட்டதாகத் தெரிகிறது.

CAISI இயக்குநர் Chris Fall, விரிவடைந்த தொழில் கூட்டாண்மைகள் அந்த மையத்திற்கு “critical moment” ஒன்றில் பொது நலனுக்காக தனது பணியை விரிவுபடுத்த உதவும் என்று கூறினார். மூல உரையின் படி, CAISI இதுவரை சுமார் 40 மதிப்பீடுகளை முடித்துள்ளது; அதில் இன்னும் வெளியிடப்படாத முன்னணி மாதிரிகளின் சோதனைகளும் அடங்கும்.

இந்த மதிப்பீடுகள் குறிப்பாக முக்கியமானவை, ஏனெனில் CAISI-க்கு பெரும்பாலும் குறைக்கப்பட்ட அல்லது நீக்கப்பட்ட பாதுகாப்புகளுடன் உள்ள அமைப்புகளுக்கு அணுகல் கிடைக்கிறது. அதனால், பொது பயன்பாட்டு வெளியீடுகளால் மட்டும் செய்ய முடியாத அளவுக்கு, தேசிய பாதுகாப்பு தொடர்பான திறன்களையும் அபாயங்களையும் மதிப்பீட்டாளர்கள் விரிவாக ஆய்வு செய்ய முடிகிறது என்று நிறுவனம் கூறுகிறது.

நடைமுறையில், அதனால் அரசு வெளியீட்டுக்குப் பிறகு மெருகூட்டப்பட்ட தயாரிப்புகளை மட்டும் பரிசீலிக்கவில்லை. பாதுகாப்பு அடுக்குகள் சில அகற்றப்பட்டபோது மாதிரிகள் என்ன செய்ய முடியும் என்பதையும் அது ஆய்வு செய்கிறது; இது திறன் மதிப்பீட்டின் மிகவும் ஆழமான வடிவமாகும்.

கொள்கை மாற்றத்தை இயக்குவது தேசிய பாதுகாப்பு

நிர்வாகத்தின் புதிய நிலைப்பாடு பெரிதும் தேசிய பாதுகாப்பை மையமாகக் கொண்டு வடிவமைக்கப்பட்டுள்ளது. உருவாகும் அபாயங்களுடன் மதிப்பீட்டாளர்கள் அரசு முழுவதும் இணைந்திருக்க, AI தேசிய பாதுகாப்பு கவலைகளில் கவனம் செலுத்தும் நிபுணர்களின் ஒரு interagency task force அமைக்கப்பட்டுள்ளது என CAISI கூறுகிறது.

இந்த வலியுறுத்தல் முக்கியமானது, ஏனெனில் அது அரசியல் மீள்நிலையாக்கத்தை விளக்க உதவுகிறது. AI நெறிமுறை அல்லது நுகர்வோர் சேதம் குறித்த பொது விவாதங்கள், பரிச்சயமான கருத்தியல் கோடுகளின் அடிப்படையில் கொள்கை உருவாக்குபவர்களை பிரிக்கலாம். தேசிய பாதுகாப்பு கேள்விகள் அந்த கோடுகளை வேகமாக மறுவினியோகம் செய்யக்கூடும். ஆபத்தான cyber misuse செய்யக்கூடியதாக கருதப்படும் ஒரு மாதிரியை, சாதாரண தொழில்நுட்ப-கொள்கை முரண்பாட்டை விட ஒரு மூலோபாய ஆபத்தாகச் சித்தரிப்பது எளிது.

AI எவ்வாறு நிர்வகிக்கப்பட வேண்டும் என்ற பெரிய விவாதத்தை அது முடிவுக்கு கொண்டுவரவில்லை; ஆனால் இப்போது நிர்வாகத்தை நகர்த்துவது எது என்பதை அது தெளிவுபடுத்துகிறது. கவலை என்பது அப்ஸ்ட்ராக்ட் safety branding அல்ல. முன்னணி அமைப்புகள், அரசாங்க மதிப்பீட்டாளர்கள் அபாய சுயவிவரத்தைப் புரிந்துகொள்ளும் முன்பே, எதிரான செயற்பாட்டாளர்களுக்கு இயக்க ரீதியான முன்னிலை உருவாக்கக்கூடும் என்பதே.

இந்தப் பின்னடைவு ஏன் முக்கியம்

புதிய ஒப்பந்தங்களின் முக்கியத்துவம் கொள்கையிலும் சைகையிலும் உள்ளது. கொள்கை ரீதியாக, முக்கிய AI நிறுவனங்கள் தங்கள் முன்னணி அமைப்புகளை வெளியீட்டுக்கு முன்பும் பிறகும் அரசாங்கக் கண்காணிப்புக்கு சமர்ப்பிக்கும் ஒரு வாயிலை அவை மீட்டெடுக்கின்றன. சைகை ரீதியாக, “AI safety” என்பதற்கு வாக்குசார் எதிர்ப்புடன் இருந்த நிர்வாகம்கூட, திறன்கள் வேகமாக உயர்ந்தால் கட்டமைக்கப்பட்ட கண்காணிப்புக்கு திரும்ப முடியும் என்பதை அவை காட்டுகின்றன.

பங்கேற்கும் நிறுவனங்களும் முக்கியமானவை. Google DeepMind, Microsoft மற்றும் xAI அனைத்தும் முன்னணி அமைப்புகளை உருவாக்கும் அல்லது ஆதரிக்கும் நிறுவனங்களில் அடங்கும்; எனவே அவர்களின் ஈடுபாடு இந்த கட்டமைப்புக்கு நடைமுறை முக்கியத்துவத்தை அளிக்கிறது. எதிர்காலத்தில் ஒரு executive order சோதனையை கட்டாயமாக்கினால், அதற்குள் அரசாங்கத்திடம் செயல்பாட்டிலுள்ள உறவுகளும் சில செயல்பாட்டு அனுபவங்களும் இருக்கும்.

அதே நேரத்தில், தற்போதைய மாற்றம் சில திறந்த கேள்விகளை விட்டுச்செல்கிறது. சில நிறுவனங்கள் ஒப்பந்தங்களில் கையெழுத்திட்டுள்ளன என்று மூல உரை குறிப்பிடுகிறது, ஆனால் முழுப் பட்டியலையோ அமலாக்க விவரங்களையோ தரவில்லை. டிரம்ப் executive order-ஐ தொடர்ந்தால், “advanced” அமைப்பு எனும் வரம்புகள் எவ்வாறு வரையறுக்கப்படும் என்பதையும் அது விளக்கவில்லை.

எவ்வாறாயினும், பயணத்தின் திசை தெளிவாக உள்ளது. AI safety-யை குறைத்து காட்ட முயன்ற ஒரு வெள்ளை மாளிகை, முன்னணி மாதிரிகளின் நடத்தை மற்றும் அவற்றை உருவாக்கும் நிறுவனங்களின் எச்சரிக்கைகள் காரணமாக மீண்டும் அதற்குத் திரும்பியுள்ளது.

திறனால் மாற்றப்பட்ட கொள்கை விவாதம்

கருத்தியல் கவலைகள் செயல்பாட்டு கவலைகளாக மாறும்போது, AI கொள்கை விவாதங்கள் எவ்வளவு விரைவாக மாற முடியும் என்பதற்கான நினைவூட்டல்தான் இது. டிரம்ப் நிர்வாகம் பேச்சுவார்த்தை சமரசத்தால் மெதுவாக பைடன் பார்வைக்குத் திசைமாறவில்லை. ஒரு முக்கிய உருவாக்குநர் மாதிரியை வெளியிட மிக ஆபத்தானது என்று தீர்மானித்த ஒரு குறிப்பிட்ட நிகழ்வுக்கு அது பதிலளித்தது போலத் தெரிகிறது.

அந்த வேறுபாடு முக்கியமானது. உருவெடுத்து வரும் AI சூழலில், திறன் சார்ந்த அதிர்வுகள் கருத்தியல் நிலைத்தன்மையைவிட வேகமாக கொள்கையை வடிவமைக்கக்கூடும். மேலும் நிர்வாகம் கட்டாய வெளியீட்டுக்கு முன் சோதனையை முன்னெடுத்தால், முன்னணி AI மதிப்பீட்டில் அண்மைய அமெரிக்காவின் வலுவான நடவடிக்கைகளில் ஒன்றை, முதலில் அத்தகைய கண்காணிப்பு தேவையற்றது என கருதிய ஒரு அதிபரிடமிருந்து நாம் காணலாம்.

  • டிரம்ப் நிர்வாகம் Google DeepMind, Microsoft மற்றும் xAI உடன் புதிய தன்னார்வ AI பாதுகாப்பு சோதனை ஒப்பந்தங்களை கையெழுத்திட்டது.
  • இந்த நடவடிக்கை, பைடன் கால AI பாதுகாப்பு சோதனைகளை முன்பு நிராகரித்த நிலைப்பாட்டை மாற்றுகிறது.
  • Anthropic தனது Claude Mythos மாதிரியை வெளியிடாத முடிவு இந்த மாற்றத்தை வேகப்படுத்தியிருக்கலாம்.
  • மேம்பட்ட AI அமைப்புகளுக்கான கட்டாய வெளியீட்டுக்கு முன் சோதனை உத்தரவு இப்போது பரிசீலனையில் உள்ளது.

இந்த கட்டுரை Ars Technica செய்தித் தகவலை அடிப்படையாகக் கொண்டது. மூலக் கட்டுரையைப் படிக்கவும்.

Originally published on arstechnica.com