Termin piątkowy i zimna война nad etyką AI
Anthropic, bezpieczeństwa AI firmy za rodziną modeli Claude, stoi w obliczu niezwykłego starcia z Departamentem Obrony Stanów Zjednoczonych. Według raportów Pentagon zażądał, aby Anthropic złagodził ograniczenia dotyczące militarnych zastosowań jego technologii AI — w szczególności zakazów użycia w autonomicznych systemach broni i masowej inwigilacji. Anthropic odmówił, a Departament Obrony odpowiedział groźbą powołania się na ustawę o obronie produkcji, prawo z czasów zimnej wojny, które umożliwia rządowi zmuszenie prywatnych firm do priorytetyzacji produkcji obronnej.
Firmie dano czas do piątku na wyrazenie zgody. Jeśli Anthropic utrzyma swój sprzeciw, Pentagon może prawnie zmusić firmę do zapewnienia dostępu do jej zdolności AI w celach militarnych, tworząc konfrontację prawną i etyczną bez wyraźnego precedensu w branży AI.
Co Anthropic ograniczył
Od swojego utworzenia Anthropic utrzymuje zasady akceptowalnego użytku, które wyraźnie zabraniają użytku jego modeli AI do autonomicznych broni, masowej inwigilacji i innych zastosowań, które firma uważa za niezgodne z jej misją bezpiecznego opracowania AI. Te ograniczenia nie są niezwykłe w branży AI — większość głównych firm AI ma podobne zasady — ale Anthropic szczególnie stanowczo wyraziła swoje zaangażowanie w bezpieczeństwo AI jako podstawową zasadę organizacyjną.
Firmy zostały założone przez byłych badaczy OpenAI Dario i Danielę Amodei, częściowo ze względu na obawy dotyczące tempa i zarządzania rozwojem AI. Jego tożsamość marki jest zbudowana wokół odpowiedzialnego opracowania AI, a jego badania nad wyrównaniem AI i interpretowalności ulokowały ją jako lidera w podejściu bezpieczeństwa na pierwszym miejscu do sztucznej inteligencji. Wycofanie się z militarnych ograniczeń podważyłoby podstawową narrację firmy.
Zagrożenie ustawy o obronie produkcji
Ustawa o obronie produkcji, podpisana w 1950 roku podczas wojny koreańskiej, daje prezydentowi szeroką władzę do kierowania przemysłem prywatnym w celu priorytetyzacji umów i zamówień uważanych za konieczne dla obrony narodowej. Został powołany okresowo dla różnych celów — niedawno podczas pandemii COVID-19, aby wymusić produkcję artykułów medycznych — ale użycie go do zmuszenia firmy AI do dostarczenia swojej technologii do zastosowań militarnych byłoby bezprecedensowym zastosowaniem ustawy.
Eksperci prawni są podzieleni co do tego, czy takie wezwanie mogłoby przetrwać przegląd sądowy. DPA został zaprojektowany do produkcji dóbr fizycznych — stali, amunicji, sprzętu medycznego — a nie do zmuszenia firmy oprogramowania do zmiany jej warunków świadczenia usług. Pytanie, czy dostęp do modelu AI stanowi "produkt", który można zajęty na mocy ustawy, wywołuje nowe kwestie prawne, które sądy nie zostały jeszcze rozwiązane.
- Pentagon żąda od Anthropic usunięcia ograniczeń dotyczących użytku AI w autonomicznych broniach i inwigilacji
- Anthropic odmawia, powołując się na podstawowe zobowiązania do zasad bezpieczeństwa AI
- Departament Obrony grozi powołaniem się na ustawę o obronie produkcji do piątku
- Eksperci prawni debatują, czy DPA może zmusić firmę oprogramowania do zmiany swoich zasad
- Impas może ustanowić precedens dla władzy rządu nad całą branżą AI
Implikacje dla branży
Konfrontacja między Anthropic a Pentagonem wysyła fale uderzające przez branżę AI, która nawiguje coraz bardziej złożoną relację z agencjami bezpieczeństwa narodowego. Google, Microsoft, Amazon i OpenAI posiadają znaczące umowy obronne, a każda zmierzyła się z wewnętrzną i zewnętrzną presją dotyczącą militarnych zastosowań ich technologii. Google słynnie wycofał się z Project Maven, programu Pentagon AI, po protestach pracowników w 2018 roku, chociaż firma od tego czasu rozszerzyła swoją pracę obronną.
Jeśli ustawa o obronie produkcji będzie pomyślnie powołana przeciwko Anthropic, ustanowiłaby precedens, że jakakolwiek firma AI działająca w Stanach Zjednoczonych mogłaby być zmuszona do zapewnienia swojej technologii do celów militarnych niezależnie od jej własnych wytycznych etycznych. Taka perspektywa mogłaby schłodzić badania nad bezpieczeństwem AI, skłonić firmy skupione na bezpieczeństwie do przeniesienia się poza jurysdykcję Stanów Zjednoczonych lub stworzyć bifurkowaną branżę, w której firmy musiałyby wybrać między kontraktami rządowymi a zobowiązaniami do bezpieczeństwa.
Odwrotnie, jeśli Anthropic z powodzeniem opuści się przed poleceniem — czy to poprzez wyzwanie prawne czy negocjacje polityczne — mogłoby to wzmocnić zasadę, że firmy AI mają prawo ustalić etyczne granice dotyczące sposobu, w jaki ich technologia jest używana, nawet gdy klientem jest rząd Stanów Zjednoczonych.
Szersza napięcie
Impas odzwierciedla fundamentalne napięcie, które zbudowało od czasu, gdy duże modele językowe i inne zaawansowane systemy AI zaczęły wykazywać możliwości z jasnych zastosowań militarnych. Rząd Stanów Zjednoczonych postrzega dominację AI jako niezbędną do bezpieczeństwa narodowego, szczególnie w konkurencji z Chinami, które wlewają zasoby do militarnych zastosowań AI z mniejszymi ograniczeniami etycznymi. Z perspektywy Pentagonu, pozwolenie wiodącej firmie AI na rezygnację z zastosowań obronnych to luksus, na który naród nie może sobie pozwolić.
Z perspektywy Anthropic, ograniczenia istnieją właśnie dlatego, że firma wierzy, że nieograniczone zastosowanie wojskowe potężnych systemów AI stwarza katastrofalne ryzyko — ryzyko, które nie są eliminowane po prostu dlatego, że użytkownik nosi amerykański mundur. Stanowisko firmy jest takie, że niektóre zastosowania AI są zbyt niebezpieczne, aby je włączyć, niezależnie od tego, kto o to prosi.
Jak ten impas się zakończy, prawdopodobnie będzie kształtować relację między branżą AI a rządem Stanów Zjednoczonych na lata. Jest to test, czy zobowiązania do bezpieczeństwa AI mogą wytrzymać grawitacyjny ściąg imperatywów bezpieczeństwa narodowego — i czy rząd będzie używać swoich najpotężniejszych narzędzi prawnych, aby zapewnić, że mogą.
Ten artykuł opiera się na raportowaniu The Decoder. Przeczytaj oryginalny artykuł.



