Narzędzie zimnej wojny dla nowej epoki technologicznej
Stosunki między Departamentem Obrony USA a jedną z wiodących na świecie firm zajmujących się sztuczną inteligencją osiągnęły punkt krytyczny. Sekretarz Obrony Pete Hegseth wydał ultimatum Anthropic: zgodź się na nieograniczony dostęp wojskowy do technologii AI do piątku, lub czeka ciebie wypadnięcie z łańcucha dostaw Pentagonu.
Zagrożenie padło podczas napięte rozmowy w Waszyngtonie we wtorek, gdzie Hegseth wezwał dyrektora generalnego Anthropic Dario Amodeia do omówienia postawy firmy, która odmawia przyznania wojsku nieograniczonego dostępu do swoich modeli AI do operacji niejawnych. Wśród najbardziej kontrowersyjnych żądań znalazły się przepisy umożliwiające krajowy nadzór i autonomiczne misje śmiercionośne bez bezpośredniego nadzoru człowieka.
Być może najbardziej uderzającym był sposób, w jaki Hegseth powołał się na Ustawę o Ochronie Produkcji Obronnej, czyli statut z czasów zimnej wojny, który przyznaje prezydentowi szerokie uprawnienia do zmuszania gałęzi krajowego przemysłu do służenia celom obronnym. Pierwotnie sformułowana po to, aby gwarantować, że fabryki mogłyby się szybko przeorientować na produkcję wojskową, prawo nigdy wcześniej nie było wykorzystywane do zmuszania firmy zajmującej się AI do przekazania swoich technologii — co stanowi bezprecedensową groźbę w historii amerykańskiej polityki technologicznej.
Nastawienie Anthropic na bezpieczeństwo pod presją
Anthropic od dawna wyróżnia się w branży AI dzięki naciskowi na badania bezpieczeństwa i odpowiedzialne wdrażanie. Firma, założona przez byłych naukowców OpenAI Dario i Danielę Amodei, zbudowała swoją markę wokół koncepcji konstytucyjnej AI — systemów zaprojektowanych z wbudowanymi barierami etycznymi mającymi na celu zapobieganie nadużyciom.
Ta nastawiona na bezpieczeństwo filozofia postawiła teraz firmę na linii zderzenia z rozszerzającym się apetytem Pentagonu na integrację AI na całych operacjach wojskowych. Choć Anthropic nie sprzeciwił się wszystkim kontraktom obronnym, postawił stanowcze granice wokół pewnych zastosowań, w szczególności tych obejmujących autonomiczną siłę śmiercionośną bez znaczącej kontroli człowieka i masowe programy nadzoru mające na celu celowanie w populacje krajowe.
Stanowisko firmy odzwierciedla szerszą debatę w branży AI na temat tego, gdzie poprowadzić granice etyczne. Inne główne firmy zajmujące się AI, w tym OpenAI i Google, również zmagały się z kontraktami wojskowymi, choć większość była bardziej skłonna do negocjacji warunków zaangażowania z agencjami obronnymi. Bardziej stanowcze stanowisko Anthropic uczyniło ją łatwym celem w coraz bardziej agresywnym dążeniu Waszyngtonu do uzbrojenia sztucznej inteligencji.
Ustawa o Ochronie Produkcji Obronnej: niezwykła broń
Ustawę o Ochronie Produkcji Obronnej podpisano w 1950 roku, na wczesnym etapie wojny koreańskiej. Jej oryginalny cel był prosty: zapewnić, że amerykański przemysł będzie w stanie szybko zmienić produkcję w celu wspierania potrzeb wojskowych. Na przestrzeni dziesięcioleci był powołany do wszystkiego, od produkcji półprzewodników po łańcuchy dostaw medycznych podczas pandemii.
Jednak zastosowanie DPA w celu zmuszenia firmy zajmującej się AI do udzielenia dostępu do swoich modeli reprezentuje fundamentalnie inny rodzaj interwencji. W przeciwieństwie do towarów fizycznych, modele AI są własnością intelektualną, której możliwości i ryzyka są głęboko powiązane. Zmuszenie firmy do usunięcia zabezpieczeń bezpieczeństwa z jej technologii rodzi pytania, które wykraczają daleko poza tradycyjne spory zakupowe.
Eksperci prawni zauważyli, że takie użycie DPA prawdopodobnie spotkałoby się z natychmiastowymi wyzwaniami sądowymi. Prawo zostało zaprojektowane dla priorytetów produkcji i łańcucha dostaw, a nie do unieważniania wewnętrznych zasad bezpieczeństwa firmy dotyczących sposobu wdrażania jej technologii. Jakikolwiek pokus invokacji mogłby ustanowić precedens o dalekosiężnych implikacjach dla całego sektora technologicznego.
Reakcje branży i szersze implikacje
Impas wstrząsnął Krzemową Doliną. Inne firmy zajmujące się AI obserwują uważnie, świadome, że wynik może ustanowić nowe normy dla sposobu interakcji rządu z prywatnym sektorem AI. Kilku liderów branży prywatnie wyraziło obawy, że kapitulacja wobec żądań Pentagonu mogłaby podważyć badania bezpieczeństwa, które wielu uważa za niezbędne do zapobiegania katastrofalnym nadużyciom AI.
Odpowiedzi kongresu były mieszane. Sokoły z komisji Sił Zbrojnych poparli stanowisko Hegseth'a, argumentując, że bezpieczeństwo narodowe musi być ważniejsze od korporacyjnych preferencji bezpieczeństwa. Inni, szczególnie członkowie Komisji Handlu Senatu, ostrzegali, że wyparcie firm zajmujących się AI mogłoby skłonić talenty i innowacyjność za granicę, ostatecznie osłabiając pozycję konkurencyjną Ameryki.
Unia Europejska również zauważyła sytuację. Urzędnicy unijni wskazali na konfrontację jako dowód wspierający ich własne bardziej regulacyjne podejście do zarządzania AI, a jeden starszy dyplomata zauważył, że incydent podkreśla ryzyko pozostawienia decyzji dotyczących bezpieczeństwa AI na łaskę politycznych nominantów.
Co się dzieje dalej
Ultimatum na piątek wisi w powietrzu. Jeśli Anthropic odmówi zgodności, Hegseth mógł wywiązać się ze swojej groźby usunięcia firmy z kanałów zamówień obronnych, odcinając znaczny strumień przychodów i wysyłając wiadomość innym firmom zajmującym się AI. Opcja Ustawy o Ochronie Produkcji Obronnej pozostaje na stole, ale stanowiłaby znacznie bardziej dramatyczną eskalację z niepewnymi wynikami prawnymi.
Dla Anthropic rachunek jest egzystencjalny. Kapitulacja mogłaby podważyć zasady bezpieczeństwa, które definiują tożsamość korporacyjną firmy i podważyć zaufanie pracowników, którzy dołączyli właśnie z powodu zaangażowania etycznego firmy. Oporowanie mogło kosztować firmę nie tylko kontrakty rządowe, ale także dobrej woli politycznej w czasie, gdy regulacja AI jest aktywnie kształtowana w Waszyngtonie.
Niezależnie od wyniku, konfrontacja wyjaśniła jedną rzecz: miesiąc miodowy między firmami zajmującymi się AI a rządem się skończył. Era uprzejmej współpracy w sprawie polityki AI ustępuje miejsca twardym negocjacjom, gdzie stawkami mierzonymi nie są kwartalny zyski, ale fundamentalne pytania o to, jak będzie rządzona najpotężniejsza technologia w historii ludzkości.
Artykuł bazuje na reportażu Ars Technica. Przeczytaj oryginalny artykuł.

