Isang Cold War Tool para sa Bagong Technology Era

Ang relasyon sa pagitan ng U.S. Department of Defense at isa sa mga nangungunang artificial intelligence companies sa mundo ay umabot na sa breaking point. Ang Defense Secretary Pete Hegseth ay naglabas ng malinaw na ultimatum sa Anthropic: sumang-ayon na magbigay-daan sa walang hangganan na military use ng AI technology nito hanggang Biyernes, o harapin ang pagpapatanggal mula sa Pentagon's supply chain.

Ang banta ay nagmula sa isang tensyon na pulong sa Washington noong Martes, kung saan tinawag ng Hegseth si Anthropic CEO Dario Amodei para sa kung ano ang inilalarawan ng mga pinagkukunan bilang isang malalaking diskusyon tungkol sa pagtanggi ng kumpanya na magbigay ng military unfettered access sa mga AI models nito para sa classified operations. Sa mga pinaka-kontrobersyal na demands ay mga pribilehiyo para sa domestic surveillance capabilities at lethal autonomous missions nang walang direktang human oversight.

Marahil ang pinakakapansin ay ang paggamit ng Hegseth sa Defense Production Act, isang Cold War-era statute na nagbibigay sa presidente ng malawak na autoridad na pakompeluhan ang domestic industries na maglingkod sa national defense priorities. Orihinal na dinisenyo upang masiguro na ang mga pabrika ay maaaring mag-pivot sa wartime production, ang batas ay hindi kailanman ginamit upang pilitin ang isang AI company na ibigay ang technology nito — na ginagawang unprecedented sa kasaysayan ng American technology policy.

Ang Safety-First Stance ng Anthropic Na Nasa Presyon

Ang Anthropic ay mahabang nagkilala sa AI industry sa pamamagitan ng emphasis nito sa safety research at responsible deployment. Ang kumpanya, na itinayo ng mga dating OpenAI researchers Dario at Daniela Amodei, ay bumuo ng brand nito sa paligid ng konsepto ng constitutional AI — mga systems na dinisenyo na may built-in ethical guardrails upang maiwasan ang misuse.

Ang safety-first philosophy na ito ay nag-lugar sa kumpanya sa isang collision course sa Pentagon's lumalaking appetite para sa AI integration sa buong military operations. Habang ang Anthropic ay hindi sumasalungat sa lahat ng defense contracts, ito ay nagtakda ng matatag na linya sa paligid ng ilang mga aplikasyon, partikular sa mga kinabibilangan ng autonomous lethal force nang walang meaningful human control at mass surveillance programs na naglalayong sa domestic populations.

Ang posisyon ng kumpanya ay sumasalamin sa mas malawak na debate sa loob ng AI industry tungkol sa kung saan dapat iguhit ang ethical boundaries. Ang ibang mga pangunahing AI firms, kasama ang OpenAI at Google, ay nakatuon rin sa military contracts, bagaman karamihan ay mas handang makipag-negotiate ng terms ng engagement sa defense agencies. Ang mas mahigpit na linya ng Anthropic ay ginawa itong lightning rod sa increasingly aggressive na push ng Washington upang gawing sandata ang artificial intelligence.

Ang Defense Production Act: Isang Unusual Weapon

Ang Defense Production Act ay nisenyo sa batas noong 1950, sa unang yugto ng Korean War. Ang orihinal na layunin nito ay tapat: masiguro na ang American industry ay mabilis na makakalit ng production upang suportahan ang military needs. Sa loob ng mga dekada, ito ay naging iniimbento para sa lahat mula sa semiconductor manufacturing hanggang pandemic medical supply chains.

Ngunit ang paglalapat ng DPA upang pakompeluhan ang isang AI company na magbigay ng access sa mga models nito ay kumakatawan sa isang fundamentally different kind ng intervention. Hindi tulad ng physical goods, ang AI models ay intellectual property na ang capabilities at risks ay malalim na magkakabit. Ang pagpapabigkas sa isang kumpanya na alisin ang safety guardrails mula sa technology nito ay nagtataas ng mga tanong na lampas sa traditional procurement disputes.

Ang mga legal experts ay nabanggit na ang ganitong paggamit ng DPA ay malamang na harapin ang agarang court challenges. Ang batas ay dinisenyo para sa production at supply chain priorities, hindi para sa pag-override ng internal safety policies ng kumpanya kung paano inilulunsad ang technology nito. Ang anumang pagsubok na mag-invoke nito ay maaaring magtakda ng isang precedent na may malayo-malayong implications para sa buong technology sector.

Ang Reactions ng Industry at Mas Malawak na Implications

Ang standoff ay nag-iwan ng shockwaves sa Silicon Valley. Ang ibang mga AI companies ay nakikita nang mabuti, na kamalayan na ang resulta ay maaaring magtatag ng mga bagong norms para sa kung paano nakikipag-ugnayan ang gobyerno sa pribadong AI sector. Maraming industry leaders ay pribadong nagpahayag ng malasakit na ang pagsusuko sa Pentagon's demands ay maaaring sirain ang safety research na marami ay isinasaalang-alang na mahalaga upang maiwasan ang catastrophic AI misuse.

Ang Congressional responses ay halo-halong. Ang mga hawks sa Armed Services committees ay sinuportahan ang posisyon ng Hegseth, na nangangahulugang ang national security ay dapat mauna sa corporate safety preferences. Iba pa, partikular ang mga miyembro ng Senate Commerce Committee, ay nag-banta na ang strong-arming AI companies ay maaaring mag-drive ng talent at innovation overseas, sa huli ay pagpapahina sa America's competitive position.

Ang European Union ay nakatuon din. Ang mga opisyal ng EU ay itinuro ang confrontation bilang ebidensya na sumusuporta sa sarili nilang mas regulatory approach sa AI governance, na may isang senior diplomat na nagsasabing ang episode ay nagpapakita ng mga risiko ng pag-iiwan ng AI safety decisions sa mga whims ng political appointees.

Kung Ano ang Mangyayari Pagkatapos

Ang Friday deadline ay lumalaki. Kung tatanggihan ng Anthropic na sumunod, ang Hegseth ay maaaring sundin ang banta nito na alisin ang kumpanya mula sa defense procurement channels, na pinutol ang isang makabuluhang stream ng revenue at nagpapadala ng mensahe sa ibang AI firms. Ang Defense Production Act option ay nananatili sa mesa ngunit ay kumakatawan sa isang mas dramatikong escalation na may hindi siguradong legal outcomes.

Para sa Anthropic, ang calculus ay existential. Ang kapitulasyon ay maaaring sirain ang safety principles na nagbibigay-kahulugan sa corporate identity nito at mabawasan ang tiwala sa mga empleyado na sumasali dahil sa commitments ng safety ng kumpanya. Ang pagsisigil ay maaaring magkahalaga sa kumpanya hindi lamang government contracts kundi pati na rin political goodwill sa isang panahon kung kailan ang AI regulation ay aktibong binabago sa Washington.

Anuman ang resulta, ang confrontation ay gumawa ng isang bagay na malinaw: ang honeymoon sa pagitan ng AI companies at gobyerno ay tapos na. Ang era ng polite collaboration sa AI policy ay nagbibigay-daan sa hardball negotiations kung saan ang stakes ay sinusukat hindi sa quarterly earnings kundi sa fundamental questions kung paano ang pinaka-makapangyarihang technology sa kasaysayan ng tao ay magiging pinamamahalaan.

Ang artikulong ito ay nakabatay sa ulat ng Ars Technica. Basahin ang orihinal na artikulo.