Дедлайн у п'ятницю та холодна війна за етику AI

Anthropic, компанія з безпеки AI, яка стоїть за сім'єю мовних моделей Claude, стикається з незвичайним конфліктом з Міністерством оборони США. За повідомленнями, Pentagon вимагає, щоб Anthropic послабила обмеження щодо військових застосувань своєї AI технології — зокрема заборон на використання в системах автономної зброї та масового спостереження. Anthropic відмовилася, а Міністерство оборони відповіло загрозою використати Закон про виробництво оборони, закон часів холодної війни, який дозволяє урядові примусити приватні компанії надати пріоритет виробництву національної оборони.

Компанії дано час до п'ятниці для відповідності. Якщо Anthropic буде стояти на своєму, Pentagon може юридично примусити компанію надати доступ до своїх AI можливостей у військових цілях, створивши юридичний та етичний конфлікт без чітких прецедентів в AI індустрії.

Що Обмежила Anthropic

З моменту свого заснування Anthropic дотримується політики прийнятого використання, яка явно забороняє використання її AI моделей для автономної зброї, масового спостереження та інших застосувань, які компанія вважає несумісними з її місією безпечного розвитку AI. Такі обмеження не є незвичайними в AI індустрії — більшість великих AI компаній мають подібні політики — але Anthropic особливо голосно виступає за свою відданість безпеці AI як основний організаційний принцип.

Компанія була заснована колишніми дослідниками OpenAI Dario та Daniela Amodei, частково через занепокоєння темпом та управлінням розвитком AI. Його фірмова ідентичність побудована навколо відповідального розвитку AI, а його дослідження в галузі вирівнювання та інтерпретабельності AI позиціонує його як лідера у підході, орієнтованому на безпеку, до штучного інтелекту. Відступ від військових обмежень підорвав би фундаментальну наративу компанії.

Загроза Закону про виробництво оборони

Закон про виробництво оборони, прийнятий 1950 року під час Корейської війни, дає президенту широкі повноваження спрямовувати приватну промисловість надавати пріоритет контрактам та замовленням, які вважаються необхідними для національної оборони. Він періодично залучався для різних цілей — недавно під час пандемії COVID-19 для примушення виробництва медичних матеріалів — але використання його для примушення AI компанії надати свою технологію для військових застосувань було б безпрецедентним застосуванням закону.

Юридичні експерти розходяться в думках щодо того, чи витримає таке залучення судову перевірку. DPA був розроблений для виробництва фізичних товарів — сталі, боєприпасів, медичного обладнання — не для примушення софтверної компанії змінити свої умови обслуговування. Питання про те, чи становить доступ до AI моделей «продукт», який можна конфіськувати за законом, створює нові юридичні питання, які суди ще не розглядали.

  • Pentagon вимагає від Anthropic зняти обмеження на використання AI в автономній зброї та спостереженні
  • Anthropic відмовилася, посилаючись на свою фундаментальну приверженість принципам безпеки AI
  • Міністерство оборони загрожує використати Закон про виробництво оборони до п'ятниці
  • Юридичні експерти сумніваються, чи DPA може примусити софтверну компанію змінити свою політику
  • Протистояння може встановити прецедент для влади уряду над AI компаніями

Наслідки для Індустрії

Протистояння між Anthropic та Pentagon викликає шокові хвилі по всій AI індустрії, яка навігує в дедалі складніших відносинах з агентствами національної безпеки. Google, Microsoft, Amazon та OpenAI всі мають значні контракти оборони, і кожна зіткнулася з внутрішнім та зовнішнім тиском щодо військових застосувань своєї технології. Google славетно вийшла з Project Maven, програми Pentagon AI, після протестів працівників у 2018 році, хоча компанія з тих пір розширила свою оборонну роботу.

Якщо Закон про виробництво оборони буде успішно використаний проти Anthropic, це встановить прецедент, що будь-яка AI компанія, яка працює в США, може бути змушена надати свою технологію для військових цілей незалежно від своїх власних етичних рекомендацій. Ця перспектива може охолодити дослідження безпеки AI, змусити компанії, орієнтовані на безпеку, переселитися за межі юрисдикції США, або створити розщеплену індустрію, де компанії мають вибір між державними контрактами та зобов'язаннями щодо безпеки.

Навпаки, якщо Anthropic успішно протистоїть наказу — чи через судовий виклик, чи через політичні переговори — це могло б зміцнити принцип, що AI компанії мають право встановлювати етичні межі щодо використання своєї технології, навіть коли замовник - уряд США.

Більш Широка Напруга

Протистояння відбиває фундаментальну напругу, яка росла з тих пір, як великі мовні моделі та інші передові AI системи почали демонструвати можливості з чіткими військовими застосуваннями. Уряд США розглядає домінування AI як суттєве для національної безпеки, особливо у конкуренції з Китаєм, який вливає ресурси у військові AI застосування з меншими етичними обмеженнями. З перспективи Pentagon, дозвіл провідній AI компанії не брати участь у оборонних застосуваннях - це розкіш, яку нація не може собі дозволити.

З перспективи Anthropic обмеження існують саме тому, що компанія вважає, що необмежене військове застосування потужних AI систем створює катастрофічні ризики — ризики, які не усуваються просто тому, що користувач носить американську форму. Позиція компанії полягає в тому, що деякі застосування AI занадто небезпечні, щоб їх дозволити, незалежно від того, хто просить.

Те, як розв'язується це протистояння, ймовірно, визначатиме відносини між AI індустрією та урядом США протягом років, що настають. Це тестовий випадок для того, чи можуть зобов'язання щодо безпеки AI витримати гравітаційне тяжіння імперативів національної безпеки — і чи використовуватиме уряд свої найпотужніші юридичні інструменти, щоб гарантувати, що вони не можуть.

Ця стаття заснована на репортажу The Decoder. Прочитайте оригінальну статтю.