First Amendment மற்றும் AI நீதிமொழியின் மீது ஒரு போராட்டம்

Anthropic Trump நிர்வாகத்திற்கு எதிராக ஒரு வழக்கை தாக்கல் செய்துள்ளது, இது AI நிறுவனத்தின் தொழில்நுட்பத்தை பிளாக்லிஸ்ட் செய்த அரசாங்கத்தின் முடிவை மாற்ற கோருகிறது. வழக்கு வாதிடுகிறது என்னவெனில் Anthropic First Amendment உரிமைகளை பயன்படுத்தி Claude AI மாதிரிகளை தன்னாதீன যுद்ધம் மற்றும் அமெரிக்க குடிமக்களின் பெரிய அளவிலான கண்காணிப்புக்காக பயன்படுத்த அனுமதிக்க மறுத்துவிட்டது, மற்றும் அரசாங்கம் ஃபெடারல் ஏஜென்சிகளை நிறுவனத்தின் பொருள்களை ஆய்வு செய்ய அல்லது பயன்படுத்த தடை விதித்து பழி வாங்கினார்.

இந்த வழக்கு AI தொழிலுக்கும் ஃபெடரல் அரசாங்கத்திற்கும் இடையே இதுவரை மிக முக்கியமான சட்ட மோதல்களை பிரதிநிதித்வம் செய்கிறது, எழுந்து வரும் தொழில்நுட்ப மற்றும் தேசிய பாதுகாப்பு கொள்கையின் சூழலில் கார்பஸ் பேச்சு உரிமைகளின் எல்லையை சோதனை செய்கிறது. White House Anthropic ஐ "தீவிர இடைஇடுக்கு, விழிப்புணர்வு" நிறுவனம் என்று அழைத்துள்ளது, அரசாங்கம் மற்றும் இராணுவ நடவடிக்கைகளில் AI இன் பங்கு பற்றிய பரந்த সংস்கৃதி போருக்குள் சார்பை உயர்த்துகிறது.

பின்புலம்

Anthropic 2021 இல் OpenAI தற்போதைய நிர்வாহகர் Dario மற்றும் Daniela Amodei ஆல் நிறுவப்பட்டது, மற்றும் தொழிலுக்கும் மிகவும் பாதுகாப்பு-விழிப்பான AI நிறுவனமாக தன்னை நிர்ணயித்துள்ளது. நிறுவனம் AI ஐ பொறுப்புடன் வளர்ப்பதன் முக்கியத்வத்ை சிரமின் மீதான அழுத்தத்தை எப்போதும் உபசரண செய்துள்ளது மற்றும் AI பாதுகாப்பு மற்றும் சீர்திசைப்பு பற்றிய விரிவான গবேষணை வெளியிட்டுள்ளது.

அரசாங்கத்தின் உடன் சர்ச்சைகளை பற்றி அறிவுறுத்தப்பட்டுள்ளது என்னவெனில் Anthropic Claude AI முறைமையை தன்னாதீன கொல்லக்கூடிய ஆயுध முறைமை மற்றும் உள்நாட்டு கண்காணிப்பு நிரல்களுக்கு பொருத்தமாக்க வேண்டு என்று கோரிக்கைகளை மறுத்துவிட்டது. நிறுவனம் வாதிட்டது அதன் AI மாதிரிகளை இந்த பயன்பாடுகளுக்கு பாதுகாப்பாக அல்லது நம்பிக்கைக்கு விதமாக பயன்படுத்த முடியாது மற்றும் அவற்றை அத்தகைய சூழல்களில் வரிசைப்படுத்துவது அதன் பொறுப்பான பயன்பாட்டு கொள்கைகளை மீறும் என்று.

வழக்கு அறிக்கை অনুसार, அரசாங்கம் பின்னர் Anthropic ஐ procurement பிளாக்லிஸ্டிலிருந்து எடுக்கப்பட்டது, ஃபெடரல் ஒப்பந்தம் நിறுவனத்தை பயன்படுத்துதல் மற்றும் பிறவற்றிற்கு அந்த தொழில்நுட்பம் பயன்படுத்தப்படக்கூடாது என்ற கண்ணோட்ட கொண்டு வந்துள்ளது. Anthropic இதை பாதுகாக்கப்பட்ட பேச்சுக்கான அரசமவுண்டாமான பழிவாங்கல் என்று தன்னியம் செய்கிறது.

சட்ட வாதம்

வழக்கு பல முக்கியமான சட்ட கேள்விகளை வளர்த்துகொள்கிறது:

  • ஒரு நிறுவனத்தின் AI தொழில்நுட்பத்தை নির்দிஷ்ட அரசாங்க பயன்பாடுகளுக்கு வழங்க மறுப்பது பாதுகாக்கப்பட்ட First Amendment பேச்சு கடமையை செய்தா
  • அரசாங்கம் நிறுவனங்களை குறிப்பிட்ட இராணுவ அல்லது கண்காணிப்பு நிரல்களுக்கு அங்கம் வகிக்க மறுப்பதற்கு குற்றச்சாட்டு செய்ய முடியுமா
  • மூலம் கவசம் பயன்பாட்டு கொள்கைகளை சுமத்தும் AI நிறுவனங்களுக்கு வெளிப்பட்ட procurement விதிகள் பொருந்தும் விதமாக
  • பிளாக்லிஸ்ட் கார்பஸ் பேச்சு மற்றும் வர்த்தக நடவடிக்கைகளின் இறுதி அவம்புண ஒரு கோச்சுப்பாடு

சட்ட வல்லுநர்கள் குறிப்பிட்டுள்ளனர் அந்த கேசு பல வேறுபட்ட சட்ட பிரமாணங்களின் வசதிக்குள் அமர்ந்துள்ளது, கார்பஸ் பேச்சு உரிமை, அரசாங்க procurement அதिकरण, மற்றும் வளர்ந்து வரும் தொழில்நுட்பத்தின் கட்டுப்பாடு. இந்த வழக்கின் சுபிடம் பாதிக்கப்பட்ட AI நிறுவனங்கள் அரசாங்க ஏற்பாட்டாளர்களின் கூட்டத்தோடு தொடர்பு கொள்ளும் வடிவமை அமைக்கக்கூடிய தக்க பூர்வோ பக்கமாக அமையும் மற்றும் அவற்றின் தொழில்நுட்பம் பயன்படுத்தப்படும் விதமை வரிசைப்படுத்த முடியுமா.

தொழிל்उপक्रम தாக்கம்

வழக்கு AI தொழிலுக்குள் விபূதিஸ் விளைவுவிக்கப்பட்டது, இந்த சமசமஸ்க்ரியதை பார்க்க நிறுவனங்கள் உய்யலாக இருந்துள்ளன. OpenAI, Google, Microsoft, மற்றும் Meta போல மற்ற பெரிய AI நிறுவனங்கள் அவற்றின் தொழில்நுட்பத்தின் இராணுவ மற்றும் அரசாங்க பயன்பாட்டுக்கான மாறுபட்ட கொள்கைகளைக் கொண்டுள்ளன. குறிப்பிட்ட நிரல்களுக்கு நிறுவனங்களை கலந்து வருவது से மறுப்பதற்கு அரசாங்கம் குற்றச்சாட்டு செய்ய முடியும் என்ற சுபிடம் முடிவு விதிப்பிக்கப்பட்டால் AI புதிய கொள்கைகளை கைவிடுவதற்கு அல்லது லாபகரமான அரசாங்க சந்தையிலிருந்து அபகரணம் செய்யப்படுவதற்கு அழுத்தம் கொடுக்கலாம்.

தபரי தபரி, Anthropic க்கு பக்கமான ஒரு சுபிடம் AI நிறுவனங்களுக்கு அவற்றின் தொழில்நுட்பம் விநியோகிக்கப்படும் விதமை அமைக்க அதிகாரத்தை அதிகரிக்க முடியும், அரசாங்கம் வர்த்தகம் பற்றி விரும்பினாலும் கூட. இது AI வளர்ச்சி பொறுப்பாக தொடர்ந்து மிகச்சரியான முயற்சிக்கு முக்கியமாக இருக்கும், இது பல ஆய்வாளர் மற்றும் கொள்கை உపகரணங்கள் தொழில்நுட்பத்தின் பெறுதற் மற்றும் தீங்குக்கு சாத்தியத்தை இளைய முக்கியமாக সনாக்தம் செய்துள்ளன.

அரசியல் உருபசிப்பு

White House ஆல் Anthropic ஐ "தீவிர இடைஇடுக்கு, விழிப்புணர்வு" நிறுவனம் என்ற வர்ணனை US இல் AI கொள்கையின் அதிகரிக்கப்பட்ட அரசியலுக்கு பிரதிபலிக்கப்படுகிறது. Trump நிர்வாகம் பொதுவாக AI வளர்ச்சி மற்றும் செயல்முறைமையை குறிப்பாக இராணுவ மற்றும் பாதுகாப்பு சூழல்களில் அதிக অনুமதியான அணுகும்முறையை விரும்புகிறது, நैতिक அல்லது பாதுகாப்பு கவலைகள் அடிப்படையிலான வரிசைமுறைமையை நுவியிற்று நிறுவனங்கள் கொள்ளைக் கொண்டுகாணின.

இந்த அரசியல் செயல்பாட்டு நிச்சயமற்றதை சட்ட நடவடிக்கைக்குள் சேர்த்துகொள்கிறது. நீதிமன்றங்கள் அரசியல் விசாரணைகளைவிட சட்ட சுபிடங்களின் அடிப்படையில் வழக்குகளை கூறுவதற்கு மறுக்கப்பட்டாலும், பரந்த அரசியல் சூழல் வழக்கு போதித்துவொடிக்கப்படும் விதம் மற்றும் எவ்வாறு எந்த சுபிடம் பொதுஜனங்கள் மற்றும் தொழிலுக்குள் ஏற்பப்பட்டுகொள்ளும் விதமை பாதிக்க முடியும்.

பின்னர் என்ன நிகழ்கிறது

வழக்கு ஃபெடரல் வளப்புகள் நிலைமையின் மூலம் மேலாக செல்ல எதிர்பார்க்கப்படுகிறது, ஆரம்ப விசாரணைகள் வரும் மாதங்களில் நிகழ்கிறது. Anthropic வாக்குபோர் வாக்கெண்ணம் மற்றும் அரசாங்கம் அதை மாற்றுவதற்கு டாக்கிட் தேட உரிமை கோரியுள்ளது. அரசாங்கம் வாதிட்டு எதிர்பார்க்கப்படுகிறது procurement முடிவுகள் செயல்பாட்டு பிரிவுகளின் விசாரணையின் கீழ் இருக்கிறது மற்றும் தேசிய பாதுகாப்பு கவலைகள் First Amendment கோரிக்கைகளை மிதமிஞ்சுகிறது.

முடிவு என்ன இருக்கோ தக, வழக்கு AI நிறுவனங்களுக்கும் அவற்றின் தொழில்நுட்பத்துக்கு நैतिक பாதுகாப்புகளை எத்தன்மை கொண்டு வந்துவிரும்பும் ஒரு அரசாங்கத்திற்கும் மத்தியே மிகவும் ஆளக்கப்பட்ட ஆற்றல் விளக்க வரசாய்ந்துள்ளது. இந்த அழுத்தம் எவ்வாறு தீர்க்கப்படுகிறது என்பது US இல் AI நிலைகளக்கு மற்றும் வெளிமாநில வியாபக விதிப்பிலும் வரும் ஆயுதம் தகவல் சிறியபட்டாக வடிவமை செய்யும்.

இந்த கட்டுரை Ars Technica ஆல் அறிக்கை அடிப்படையாகும். அசल கட்டுரை படிக்கவும்.