Lhůta v Pátek a Studená Válka Over AI Ethics
Anthropic, společnost zaměřená na bezpečnost AI stojící za rodinou jazykových modelů Claude, se střetává s mimořádnou konfrontací s americkým Ministerstvem obrany. Podle zpráv Pentagon požadavek, aby Anthropic zmírnila svá omezení na vojenských aplikacích své AI technologie — konkrétně zákazy na použití v systémech autonomních zbraní a hromadného dohledu. Anthropic odmítla a Ministerstvo obrany reagovalo hrozbou vyvolat Zákon o produkci obrany, zákon z období studené války, který vládě umožňuje přinutit soukromé společnosti, aby upřednostnily produkci národní obrany.
Společnosti byl dán čas do pátku na podřízení. Pokud Anthropic trvá na odmítnutí, Pentagon by mohla právně přinutit společnost poskytnout přístup ke svým možnostem AI pro vojenské účely, což vytváří právní a etickou konfrontaci bez jasného precedentu v AI průmyslu.
Co Omezila Anthropic
Od svého založení Anthropic udržuje přijatelnou politiku používání, která výslovně zakazuje použití jejích AI modelů pro autonomní zbraně, hromadný dohled a další aplikace, které společnost považuje za neslučitelné se svou misí bezpečného vývoje AI. Tato omezení nejsou neobvyklá v AI průmyslu — větší část velkých AI společností má podobné politiky — ale Anthropic je obzvláště hlasitá ohledně svého závazku k bezpečnosti AI jako základnímu organizačnímu principu.
Společnost byla založena bývalými výzkumními pracovníky OpenAI Dario a Danielou Amodei, částečně kvůli obavám z tempa a vedení vývoje AI. Její značková identita je postavena kolem odpovědného vývoje AI a její výzkum v oboru sladění a interprelovatelnosti AI ji pozicionuje jako vedoucího bezpečnosti-první přístupu k umělé inteligenci. Ustoupení v měkkých vojenských omezeních by podkopalo základní vyprávění společnosti.
Hrozba Zákona o Produkci Obrany
Zákon o produkci obrany, přijatý v roce 1950 během korejské války, dává prezidentovi rozsáhlou autoritu směřovat soukromý průmysl k upřednostňování smluv a objednávek považovaných za nezbytné pro národní obranu. Byl několikrát vyvolán na různé účely — naposledy během pandemie COVID-19 k vynucení výroby zdravotnických potřeb — ale jeho použití k vynucení, aby AI společnost poskytla svou technologii pro vojenské aplikace, by představovalo bezprecedentní aplikaci zákona.
Právní odborníci se liší v názoru, zda by takové vyvolání odolalo soudní přezkumu. DPA byla navržena pro výrobu fyzických zboží — oceli, munice, zdravotnického vybavení — nikoli pro vynucení, aby společnost software změnila své podmínky služby. Otázka, zda přístup k modelům AI představuje "produkt", který lze zabavit podle zákona, vyvolává nové právní otázky, které soudy dosud neřešily.
- Pentagon požadavek Anthropic odstranit omezení AI na autonomní zbraně a dohled
- Anthropic odmítla, citovala svůj základní závazek principům bezpečnosti AI
- Ministerstvo obrany hrozí vyvolat Zákon o produkci obrany do pátku
- Právní odborníci se ptají, zda DPA může přinutit softwarovou společnost změnit své politiky
- Konfrontace by mohla stanovit precedent pro vládní autoritu nad AI společnostmi
Důsledky pro Průmysl
Konfrontace mezi Anthropic a Pentagon vysílá šoky po AI průmyslu, který naviguje čím dál složitější vztah s agenturami národní bezpečnosti. Google, Microsoft, Amazon a OpenAI všechny mají významné obranné smlouvy a každá se setkala s vnitřním a vnějším tlakem ohledně vojenských aplikací své technologie. Google byl znám tím, že se stáhl z Project Maven, programu Pentagon AI, poté, co zaměstnanci protestovali v roce 2018, ačkoli společnost od té doby rozšířila svou obrannou práci.
Pokud bude Zákon o produkci obrany úspěšně použit proti Anthropic, vytvoří precedent, že každá AI společnost provozující v Spojených státech by mohla být nucena poskytnout svou technologii na vojenské účely bez ohledu na vlastní etické pokyny. Tato perspektiva by mohla zmrazit výzkum bezpečnosti AI, přinutit společnosti zaměřené na bezpečnost přestěhovat se mimo americkou jurisdikci nebo vytvořit bifurkovaný průmysl, kde se společnosti musí rozhodovat mezi vládními smlouvami a bezpečnostními závazky.
Naopak, pokud se Anthropic úspěšně postaví rozkazu — ať už prostřednictvím právního sporu nebo politických jednání — mohla by zesílit princip, že AI společnosti mají právo stanoveného etické hranice na tom, jak se jejich technologie používá, i když je zákazníkem americká vláda.
Širší Napětí
Konfrontace odráží základní napětí, které roste od doby, kdy velké jazykové modely a další pokročilé AI systémy začaly демонструют schopnosti s jasným vojenským aplikacím. Americká vláda vidí dominanci AI jako nezbytnou pro národní bezpečnost, zvlášť v konkurenci s Čínou, která klade zdroje do vojenských aplikací AI s menšími etickými omezeními. Z pohledu Pentagon je umožnění vedoucí AI společnosti vybrat se z obranných aplikací luxusem, který si národ nemůže dovolit.
Z pohledu Anthropic omezení existují právě proto, že společnost věří, že neomezené vojenské použití výkonných AI systémů vytváří katastrofální rizika — rizika, která nejsou eliminována prostým faktem, že uživatel nosí americkou uniformu. Postoj společnosti je, že některé aplikace AI jsou příliš nebezpečné na to, aby byly povoleny, bez ohledu na to, kdo žádá.
Jak se tato konfrontace vyřeší, pravděpodobně určí vztah mezi AI průmyslem a americkou vládou na roky dopředu. Je to zkušební případ pro to, zda bezpečnostní závazky AI mohou odolat gravitační tahu imperativů národní bezpečnosti — a zda bude vláda používat své nejsilnější právní nástroje, aby se ujistila, že nemohou.
Tento článek je založen na zpravodajství The Decoder. Přečtěte si původní článek.

