NSA அணுகல் கொள்கை கேள்விகளை எழுப்புகிறது
The Decoder, Axios-இன் இரண்டு மூலங்களை மேற்கோள் காட்டும் செய்தி சுருக்கத்தைப் பொருத்து, அமெரிக்க தேசிய பாதுகாப்பு முகமை Anthropic-ன் மிக சக்திவாய்ந்த AI மாதிரியான Mythos Preview-ஐ பயன்படுத்துகிறது என்று தெரிவிக்கிறது.
இந்தப் பதிவான அமலாக்கம் குறிப்பிடத்தக்கது, ஏனெனில் NSA Pentagon-ன் அதிகாரத்துக்குள் உள்ளது; அதே நேரத்தில், பாதுகாப்புத்துறை Anthropic-ஐ தனியாக ஒரு பாதுகாப்பு ஆபத்து என வகைப்படுத்தி, பிப்ரவரி முதல் அந்த நிறுவனத்தை விற்பனையாளராகத் தடுக்க முயன்றுள்ளது.
இந்த நிலை அரசு AI ஏற்றத்தில் அதிகரிக்கும் பதற்றத்தை பிரதிபலிக்கிறது: முகமைகள் முன்னேற்றமான மாதிரிகளுக்கான அணுகலை விரும்புகின்றன, ஆனால் அதே அமைப்புகள் பாதுகாப்பு, கொள்முதல், கண்காணிப்பு, மற்றும் ஆயுதக் கொள்கை தொடர்பான கவலைகளையும் உருவாக்க முடியும்.
கட்டுப்படுத்தப்பட்ட ஒரு மாதிரி
Project Glasswing எனப்படும் முயற்சியின் கீழ் Anthropic Mythos-க்கு அணுகலை சுமார் 40 அமைப்புகளுக்கு மட்டுமே கட்டுப்படுத்தியுள்ளது. அந்த மாதிரியின் offensive cyber திறன்கள் பரவலான வெளியீட்டுக்கு மிக ஆபத்தானவை என்று நிறுவனம் வாதிட்டுள்ளது.
இந்தக் கட்டுப்பாடு Mythos-ஐ பொதுவான வணிகச் chatbot-களிலிருந்து வேறு ஒரு பிரிவில் நிறுத்துகிறது. இந்த மாதிரி இன்னொரு productivity கருவி அல்ல, ஒரு நுணுக்கமான திறன் எனக் கருதப்படுகிறது.
The Decoder குறிப்புப்படி, Anthropic CEO Dario Amodei கடந்த வாரம் White House அதிகாரிகளைச் சந்தித்து, அரசு முகமைகள் முழுவதும் Mythos-ஐப் பயன்படுத்துவது குறித்து பேசினார். UK-இன் intelligence services-க்கும் அந்த நாட்டின் AI Security Institute வழியாக இந்த மாதிரிக்கு அணுகல் உள்ளதாகவும் தெரிவிக்கப்படுகிறது.
ஏற்றுக்கொள்ளத்தக்க பயன்பாடு குறித்த மோதல்
Claude-ஐ எல்லா சட்டபூர்வமான பயன்பாடுகளுக்கும் கிடைக்கச் செய்ய வேண்டும் என்று Pentagon Anthropic-ஐ கேட்டுள்ளது. Anthropic அதை மறுத்து, mass surveillance மற்றும் autonomous weapons சுற்று எல்லைகளை நிர்ணயித்துள்ளது.
அந்த முரண்பாடு உருவாகி வரும் AI procurement விவாதத்தின் மையத்தைத் தொட்டுள்ளது. ஒரு model provider தன் அமைப்புகள் எவ்வாறு பயன்படுத்தப்பட வேண்டும் என்பதற்கான சிவப்பு கோடுகளை நிர்ணயிக்க விரும்பலாம்; ஆனால் அரசு வாங்குபவர்கள் அனுமதிக்கப்பட்ட பயன்பாட்டை சட்ட அதிகாரமே தீர்மானிக்க வேண்டும் என்று வாதிடலாம்.
நுண்ணறிவு மற்றும் பாதுகாப்புத் துறைகளுக்கு, frontier AI மாதிரிகள் cyber analysis, மொழி செயலாக்கம், தகவல் triage, மற்றும் பிற அதிக அளவிலான பகுப்பாய்வு பணிகளில் பயனுள்ளதாக இருக்கலாம். ஆனால் அதே திறன்கள் கண்காணிப்பு, offensive cyber operations, அல்லது குறைந்த மனிதக் கட்டுப்பாடு கொண்ட அமைப்புகளில் பயன்படுத்தப்படும் போது கவலைகளை ஏற்படுத்தலாம்.
ஏன் இது முக்கியம்
Mythos-ஐ NSA பயன்படுத்துகிறது என்ற அறிக்கை, vendor restrictions, national security exclusions, மற்றும் acceptable-use எல்லைகள் குறித்த நிலையான கொள்கை நெறிமுறைகள் இன்னும் முழுமையாக உருவாகாத நிலையிலேயே, சக்திவாய்ந்த AI அமைப்புகள் நுணுக்கமான அரசு சூழல்களுக்குள் நகர்கின்றன என்பதைக் காட்டுகிறது.
இந்த மோதல் AI safety உறுதிமொழிகள் இனி தயாரிப்பு வடிவமைப்பு பிரச்சினை மட்டுமல்ல என்பதையும் காட்டுகிறது. அவை கொள்முதல் நிபந்தனைகள், சட்டப் பிணக்குகள், மற்றும் தேசிய பாதுகாப்பு கேள்விகளாக மாறுகின்றன.
அமைப்புகள் கட்டுப்படுத்தப்பட்ட AI மாதிரிகளை ஏற்றுக்கொள்ளும் போது, அரசின் மற்ற பகுதிகள் விற்பனையாளரின் பங்கை சவால் செய்தால், முடிவு ஒரு பிளவுபட்ட அணுகுமுறையாக இருக்கலாம்: ஒரு அலுவலகம் ஒரு மாதிரியை மூலதன ரீதியாக அவசியமானதாகக் கருதும், மற்றொன்று வழங்குநரை பாதுகாப்பு கவலையாகக் கருதும்.
Mythos வழக்கு பல முக்கிய AI governance கேள்விகளை ஒரே நேரத்தில் உள்ளடக்கியதால் நெருக்கமாக கவனிக்கப்படும்: frontier மாதிரிகளுக்கு யாருக்கு அணுகல், cyber-capable systems எவ்வாறு கட்டுப்படுத்தப்பட வேண்டும், மற்றும் ஒரு தனியார் AI நிறுவனம் சில அரசு பயன்பாடுகளை மறுத்தாலும் பொதுத் துறை வாடிக்கையாளர்களுக்கு சேவை செய்ய முடியுமா என்பவை.
இந்தக் கட்டுரை The Decoder வெளியிட்ட செய்தியை அடிப்படையாகக் கொண்டது. மூலக் கட்டுரையைப் படிக்கவும்.
Originally published on the-decoder.com



