Пятничный крайний срок и холодная война над этикой AI

Anthropic, компания по безопасности AI, стоящая за семейством Claude языковых моделей, сталкивается с необычным противостоянием с Министерством обороны США. Согласно сообщениям, Pentagon потребовал от Anthropic ослабить ограничения на военные применения её AI технологии — в частности, запреты на использование в системах автономного оружия и массового надзора. Anthropic отказалась, и Министерство обороны ответило угрозой применить Defense Production Act, закон времен холодной войны, который позволяет правительству обязать частные компании отдать приоритет оборонному производству.

Компании дан срок до пятницы для выполнения требований. Если Anthropic сохранит свой отказ, Pentagon может законно обязать компанию предоставить доступ к своим AI возможностям в военных целях, создав правовое и этическое противостояние без четких прецедентов в AI индустрии.

Что запретила Anthropic

С момента основания Anthropic придерживается политики приемлемого использования, которая явно запрещает использование её AI моделей для автономного оружия, массового надзора и других приложений, которые компания считает несовместимыми с её миссией развития AI безопасным образом. Такие ограничения не являются необычными в AI индустрии — большинство крупных AI компаний имеют похожие политики — но Anthropic была особенно открыта о своей приверженности безопасности AI как основному организационному принципу.

Компания была основана бывшими исследователями OpenAI Дарио и Даниэлой Амодеи, отчасти из-за озабоченности темпом и управлением развитием AI. Её идентичность построена на ответственном развитии AI, и её исследования в области выравнивания AI и интерпретируемости позиционируют её как лидера в подходе, ориентированном на безопасность, к искусственному интеллекту. Отступление от военных ограничений подорвало бы основную нарративу компании.

Угроза Defense Production Act

Defense Production Act, подписанный в 1950 году во время корейской войны, дает президенту широкие полномочия направлять частную промышленность на приоритизацию контрактов и заказов, считающихся необходимыми для национальной безопасности. Он применялся периодически в различных целях — совсем недавно во время пандемии COVID-19 для принуждения к производству медицинских принадлежностей — но его использование для принуждения компании AI предоставить её технологию для военного применения представляло бы беспрецедентное применение закона.

Правовые эксперты разделены относительно того, выдержал ли бы такой акт судебную проверку. DPA был разработан для физического производства товаров — стали, боеприпасов, медицинского оборудования — не для принуждения программной компании изменить условия своего обслуживания. Вопрос о том, является ли доступ к AI моделям «продуктом», который может быть конфискован по закону, поднимает новые правовые вопросы, которые суды еще не рассматривали.

  • Pentagon требует от Anthropic удалить ограничения AI на автономное оружие и надзор
  • Anthropic отказалась, ссылаясь на свои основополагающие принципы безопасности AI
  • Министерство обороны угрожает применить Defense Production Act до пятницы
  • Правовые эксперты ставят под сомнение, может ли DPA принудить программную компанию изменить свою политику
  • Противостояние может установить прецедент для государственной власти над AI компаниями

Последствия для индустрии

Противостояние между Anthropic и Pentagon отправляет волны по всей AI индустрии, которая ориентируется в растущих сложных отношениях с государственными агентствами национальной безопасности. Google, Microsoft, Amazon и OpenAI имеют значительные оборонные контракты, и каждая сталкивалась с внутренним и внешним давлением относительно военного применения их технологии. Google был известен своим отказом от Project Maven, программы Pentagon AI, после протестов сотрудников в 2018 году, хотя компания с тех пор расширила свою оборонную работу.

Если Defense Production Act будет успешно применён против Anthropic, это установит прецедент, что любая AI компания, работающая в Соединённых Штатах, может быть принуждена предоставить свою технологию в военных целях независимо от её собственных этических руководств. Эта перспектива могла бы охладить исследования в области безопасности AI, заставить компании, ориентированные на безопасность, переместиться за пределы юрисдикции США, или создать раздельную индустрию, где компании должны выбирать между государственными контрактами и обязательствами безопасности.

И наоборот, если Anthropic успешно сопротивляется приказу — будь то через судебный вызов или политические переговоры — это может укрепить принцип, что AI компании имеют право устанавливать этические границы на то, как их технология используется, даже когда клиент является правительством США.

Более широкое напряжение

Противостояние отражает фундаментальное напряжение, которое нарастает с момента, когда большие языковые модели и другие продвинутые AI системы начали демонстрировать возможности с четкими военными применениями. Правительство США рассматривает превосходство AI как необходимое для национальной безопасности, особенно в конкуренции с Китаем, который вкладывает ресурсы в военные приложения AI с меньшими этическими ограничениями. С точки зрения Pentagon, позволение ведущей AI компании выйти из оборонных приложений — это роскошь, которую нация не может себе позволить.

С точки зрения Anthropic, ограничения существуют именно потому, что компания верит, что безограниченное военное применение мощных AI систем представляет катастрофические риски — риски, которые не устраняются просто потому, что пользователь носит американскую форму. Позиция компании состоит в том, что некоторые применения AI слишком опасны для включения, независимо от того, кто просит.

То, как разрешится это противостояние, вероятно, будет формировать отношения между AI индустрией и правительством США на долгие годы. Это проверочный случай для того, могут ли обязательства безопасности AI выдержать гравитационное притяжение императивов национальной безопасности — и будет ли правительство использовать свои наиболее мощные законные инструменты, чтобы убедиться, что они не могут.

Эта статья основана на сообщениях The Decoder. Прочитайте оригинальную статью.