Péntek Határidő és Hidegháború az AI Etika Felett

Az Anthropic, az AI-biztonság vállalat a Claude nyelvmodell-család mögött, rendkívüli összecsapással szembesül az Amerikai Egyesült Államok Védelmi Minisztériumával. Beszámolók szerint a Pentagon megkövetelte, hogy az Anthropic lazítsa meg a katonai alkalmazások korlátozásait az AI-technológiájában — különösen az autonóm fegyverrendszerekben és tömeges megfigyelésben való felhasználás tilalmát. Az Anthropic visszautasította, és a Védelmi Minisztérium a Védelmi Termelési Törvény betartatásával fenyegetett, amely a hidegháborús időszakból származó törvény, amely lehetővé teszi a kormánynak, hogy magánvállalkozásokat arra kényszerítsen, hogy a nemzeti védelmi termelést prioritásként kezeljék.

A vállalatnak péntekig van ideje a megfelelésre. Ha az Anthropic kiállja az ellenállást, a Pentagon jogilag kényszerítheti a vállalatot, hogy hozzáférést biztosítson AI-képességeihez katonai célokra, ami egy jogi és etikai összecsapást teremt, amelynek nincs tiszta precedense az AI-iparban.

Mit Korlátozta az Anthropic

Alapítása óta az Anthropic megtartja az elfogadható használat politikáját, amely kifejezetten tiltja az AI-modellek autonóm fegyverekhez, tömeges megfigyeléshez és más alkalmazásokhoz való felhasználását, amelyeket a vállalat nem összeegyeztethetőnek tart a biztonságos AI-fejlesztés feladata. Ezek a korlátozások nem szokatlanok az AI-iparban — legtöbb nagy AI-vállalat hasonló politikával rendelkezik —, de az Anthropic különösen hangos az AI-biztonsághoz való elkötelezettségéről mint alapvető szervezeti elveiről.

A vállalatot az OpenAI korábbi kutatói, Dario és Daniela Amodei alapították, részben az AI-fejlesztés tempóját és irányítását illető aggályok miatt. Márkaidentitása a felelős AI-fejlesztés körül épül, és az AI-igazítás és -értelmezhetőség kutatása az AI-biztonsággal kapcsolatos megközelítésének vezetőjeként helyezi el. A katonai korlátozások felről történő oldása aláásná a vállalat alapvető narrációját.

A Védelmi Termelési Törvény Fenyegetése

A Védelmi Termelési Törvényt 1950-ben az Koreai Háborúban írták alá, amely a prezidensnek széleskörű hatáskört ad a magánszektor irányítására, hogy a nemzeti védelemhez szükségesnek ítélt szerződések és megrendelések előnyben részesítésére. Időnként különféle célokra lett betartatva — a közelmúltban a COVID-19-pandémia alatt az orvosi szállítások termelésének kényszere —, de az AI-vállalat technológiájának katonai alkalmazásokra kényszerzésére való felhasználása a törvény gyakorlatlan alkalmazását jelentené.

A jogi szakértők megoszlanak abban, hogy egy ilyen betartatás ellenállná-e a bírósági felülvizsgálatot. A DPA fizikai áruk termelésére — acél, lőszer, orvosi felszerelés — nem pedig szoftvercég kötelezésére irányult a szolgáltatási feltételek megváltoztatásra. Az a kérdés, hogy az AI-modellhez való hozzáférés „terméket" jelent-e, amelyet a törvény értelmében le lehet foglalni, új jogi kérdéseket vet fel, amelyekkel a bíróságok még nem foglalkoztak.

  • A Pentagon megköveteli az Anthropictól, hogy távolítsa el az AI-korlátozásokat az autonóm fegyverzetekre és megfigyelésre
  • Az Anthropic visszautasította, alapvető AI-biztonsági elvekhez való elkötelezettsége alapján
  • A Védelmi Minisztérium fenyegeti a Védelmi Termelési Törvény betartatásával péntekig
  • Jogi szakértők megkérdőjelezik, hogy a DPA kényszerítheti-e a szoftvercéget a politikák módosítására
  • Az összecsapás precedenst állíthat fel a kormányzati hatalom felett az AI-vállalatok felett

Ipari Következmények

Az Anthropic és Pentagon közötti összecsapás sokkhullámokat küld az AI-iparban, amely egyre összetettebb kapcsolatot navigál a nemzetbiztonság ügynökségeivel. A Google, Microsoft, Amazon és OpenAI mind jelentős védelmi szerződésekkel rendelkezik, és mindegyik belső és külső nyomásnak nézett szembe technológiájuk katonai alkalmazásainak tekintetében. A Google híresként visszavonult a Project Maven-ből, egy Pentagon AI-programból, az alkalmazottak tiltakozása után 2018-ban, bár a vállalat azóta kiterjesztette védelmi munkáját.

Ha a Védelmi Termelési Törvényt sikeresen betartatják az Anthropic ellen, precedenset állít fel, miszerint bármelyik az Egyesült Államokban működő AI-vállalat kérhető, hogy adja meg technológiáját katonai célokra, függetlenül saját etikai irányelveitől. Ez a kilátás lehűtheti az AI-biztonsági kutatást, kényszerzetheti a biztonsággal foglalkozó vállalatokat az USA-on kívülre vagy bifurkált iparágat hozhat létre, ahol a vállalatok választaniuk kell a kormányzati szerződések és biztonsági kötelezettségek között.

Ellenkezőleg, ha az Anthropic sikeresen ellenáll az utasításnak — akár jogi vitatás, akár politikai tárgyalás útján —, megerősítheti azt az elvet, hogy az AI-vállalatoknak joga van etikai határokat szabni technológiájuk felhasználásához, még akkor is, ha az ügyfél az Egyesült Államok kormánya.

A Tágabb Feszültség

Az összecsapás tükrözi a feltörekvő feszültséget, amely azóta nőtt, hogy a nagy nyelvmodellek és más fejlett AI-rendszerek kezdtek a tiszta katonai alkalmazásokkal rendelkező képességeket mutatni. Az Egyesült Államok kormánya az AI-dominanciát lényegesnek tekinti a nemzetbiztonsághoz, különösen a Kínával való versenyben, amely erőforrásokat önt a katonai AI-alkalmazásokba, kevésbé etikai korlátozásokkal. A Pentagon szemszögéből egy vezető AI-vállalat számára lehetővé tenni, hogy tartózkodjon a védelmi alkalmazásokhoz, egy luxus, amelyet az ország nem engedhet meg.

Az Anthropic szemszögéből a korlátozások azért léteznek, mert a vállalat úgy véli, hogy a hatékony AI-rendszerek korlátlan katonai alkalmazása katasztrófális kockázatokat teremtinek — kockázatokat, amelyeket nem szűntetnek meg, mivel a felhasználó amerikai uniformist visel. A vállalat álláspontja az, hogy az AI egyes alkalmazásai túl veszélyesek ahhoz, hogy engedélyezzék őket, függetlenül attól, hogy ki kéri.

Az összecsapás feloldódása valószínűleg meghatározza az AI-ipar és az Egyesült Államok kormánya közötti kapcsolatot az elkövetkezendő évekre. Ez egy tesztelés az AI-biztonsági kötelezettségekre, hogy ellenálljanak-e a nemzetbiztonság императívusának gravitációs húzásának — és hogy a kormány felhasználja-e legerősebb jogi eszközeit annak biztosítására, hogy nem tudnak.

Ez a cikk a The Decoder jelentésein alapul. Olvassa el az eredeti cikket.