Інструмент холодної війни для епохи нової технології

Стосунки між Міністерством оборони США та однією з провідних компаній штучного інтелекту світу досягли точки розриву. Міністр оборони Піт Гегсет видав категоричний ультиматум компанії Anthropic: погодиться дозволити безнеобмежене військове використання своєї AI-технології до п'ятниці, або зіткнеться з виключенням з ланцюга поставок Пентагону.

Погроза висунута під час напруженої зустрічі у Вашингтоні у вівторок, де Гегсет викликав генерального директора Anthropic Даріо Амодеї на те, що джерела описали як конфліктну дискусію про відмову компанії надати військам необмежений доступ до своїх AI-моделей для секретних операцій. Серед найбільш суперечливих вимог були положення щодо можливостей внутрішнього спостереження та летальних автономних операцій без прямого людського контролю.

Мабуть, найбільш вражаючим було посилання Гегсета на Закон про оборонну мобілізацію — закон часів холодної війни, який надає президентові широкі повноваження змушувати внутрішні галузі слугувати пріоритетам національної оборони. Спочатку розроблений для того, щоб гарантувати, що фабрики можуть перейти на воєнне виробництво, закон ніколи раніше не використовувався для примусу AI-компанії передати свою технологію — це робить цю погрозу безпрецедентною в історії американської технологічної політики.

Стратегія Anthropic, зосереджена на безпеці, під тиском

Anthropic довгий час вирізнялася в AI-індустрії своїм наголосом на дослідженнях безпеки та відповідальному впровадженні. Компанія, заснована колишніми дослідниками OpenAI Даріо та Данієлою Амодей, побудувала свій бренд навколо концепції конституційного AI — систем, розроблених з вбудованими етичними обмеженнями, призначеними для запобігання зловживанню.

Ця філософія пріоритету безпеки тепер поставила компанію на шлях зіткнення з розширюваним аппетитом Пентагону до інтеграції AI у військові операції. Хоча Anthropic не заперечував щодо всіх оборонних контрактів, компанія провела чіткі межі навколо певних застосувань, особливо тих, що стосуються автономного летального потенціалу без змістовного людського контролю та програм масового спостереження, спрямованих проти внутрішнього населення.

Позиція компанії відображає більш широку дискусію в AI-індустрії про те, де провести етичні межі. Інші основні AI-компанії, включаючи OpenAI та Google, також гралися з військовими контрактами, хоча більшість були готові більше вести переговори щодо умов взаємодії з оборонними агентствами. Більш жорстока позиція Anthropic зробила її громовідводом у все більш агресивному натиску Вашингтона на озброєння штучного інтелекту.

Закон про оборонну мобілізацію: необична зброя

Закон про оборонну мобілізацію було прийнято у 1950 році на ранніх етапах Корейської війни. Його первісна мета була простою: забезпечити, щоб американська промисловість могла швидко переорієнтувати виробництво на підтримку оборонних потреб. На протязі десятиліть його було залучено для всього — від виробництва напівпровідників до ланцюгів постачання медичного обладнання під час пандемії.

Однак застосування DPA для примусу AI-компанії надати доступ до своїх моделей представляє принципово іншу форму втручання. На відміну від фізичних товарів, AI-моделі є інтелектуальною власністю, можливості та ризики якої тісно пов'язані. Примус компанії видалити захисні бар'єри безпеки зі своєї технології ставить питання, які виходять далеко за межі традиційних суперечок про закупівлі.

Юридичні експерти відзначили, що таке використання DPA, ймовірно, стане предметом негайних судових позовів. Закон був розроблений для пріоритетів виробництва та ланцюга поставок, а не для скасування внутрішньої політики компанії щодо безпеки щодо того, як розгортається її технологія. Будь-яка спроба його застосування може встановити прецедент з далекосяжними наслідками для всього технологічного сектору.

Реакції промисловості та ширші наслідки

Це протистояння викликало потрясіння в Silicon Valley. Інші AI-компанії уважно спостерігають, усвідомлюючи, що результат може встановити нові норми того, як уряд взаємодіє з приватним сектором AI. Кілька лідерів індустрії приватно висловили занепокоєння, що поступка вимогам Пентагону могла б підірвати дослідження безпеки, які багато хто вважають необхідними для запобігання катастрофічному зловживанню AI.

Реакції конгресу були змішаними. Яструби комітету з озброєних служб підтримали позицію Гегсета, стверджуючи, що національна безпека повинна мати пріоритет перед корпоративними уподобаннями щодо безпеки. Інші, особливо члени Сенатського комітету з торгівлі, застерігали, що тиск на AI-компанії може спонукати таланти та інновації за кордон, у кінцевому підсумку послаблюючи конкурентну позицію Америки.

Європейський Союз також звернув увагу. Посадовці ЄС вказали на конфлікт як на доказ, що підтримує їх власний більш нормативний підхід до управління AI, при цьому один старший дипломат зазначив, що цей епізод підкреслює ризики передання рішень щодо безпеки AI на милість політичних призначенців.

Що станеться далі

Крайній строк п'ятниці наближається. Якщо Anthropic відмовиться підкоритися, Гегсет може втілити в життя свою погрозу видалити компанію з каналів оборонних закупівель, перекривши значний джерело доходу і послуючи сигнал іншим AI-компаніям. Варіант із законом про оборонну мобілізацію залишається на столі, але представляє набагато більш драматичне посилення з невизначеними правовими наслідками.

Для Anthropic розрахунок є екзистенціальним. Капітуляція може підірвати принципи безпеки, які визначають корпоративну ідентичність, і підірвати довіру працівників, які приєдналися саме через зобов'язання компанії щодо безпеки. Опір може коштувати компанії не тільки державних контрактів, але й політичної симпатії у час, коли регулювання AI активно формується у Вашингтоні.

Яким би не був результат, конфлікт зробив одне яким чином ясним: медовий місяць між AI-компаніями та урядом закінчено. Епоха ввічливої співпраці щодо політики AI поступається місцем жорстким переговорам, де ставки вимірюються не квартальними прибутками, а фундаментальними питаннями того, як буде керуватися найпотужнішою технологією в історії людства.

Ця стаття ґрунтується на матеріалах Ars Technica. Прочитайте оригінальну статтю.