Высокие ставки в переговорах
Министр обороны Пит Хегсет назначена встреча с генеральным директором Anthropic Дарио Амодеи, переговоры подчеркивают интенсивно разворачивающиеся дебаты о том, как искусственный интеллект должен использоваться американской армией. Встреча происходит в то время, когда Министерство обороны ускоряет свои усилия по развертыванию AI в широком спектре военных приложений, от анализа разведданных до логистики и автономных систем вооружения.
Anthropic, компания по безопасности AI, создатель семейства моделей Claude, позиционирует себя как осторожный голос в индустрии AI, подчеркивая важность исследований безопасности и ответственного развертывания. Готовность компании к прямому сотрудничеству с Пентагоном представляет значительную эволюцию в её подходе к партнерству с государством, и встреча с Хегсетом может определить условия такого сотрудничества на годы вперед.
Амбиции Пентагона в области AI
Министерство обороны инвестирует в искусственный интеллект на протяжении нескольких лет, но темп резко ускорился при нынешней администрации. Офис главного директора по цифровизации и искусственному интеллекту Пентагона (CDAO) получил задачу масштабировать внедрение AI во все военные службы, и ведомство выделило миллиарды долларов в виде контрактов технологическим компаниям за работу, связанную с AI.
Ключевые области внимания включают прогнозное обслуживание военного оборудования, автоматизированный анализ спутниковых снимков и сигналов, инструменты поддержки принятия решений для командиров на поле боя и — что наиболее спорно — автономные системы вооружения, которые могут идентифицировать и поражать цели с различными степенями контроля человека.
Хегсет открыто высказывал мнение, что Соединённые Штаты должны быстрее развертывать AI в военных приложениях, иначе рискуют отстать от Китая, который сделал боевые действия с использованием AI центральной опорой своей стратегии модернизации вооруженных сил. Его позиция отражает более широкую озабоченность в оборонном истеблишменте того, что чрезмерная осторожность относительно безопасности AI может создать опасный разрыв в возможностях.
Балансировка для Anthropic
Для Anthropic встреча с Хегсетом представляет деликатный балансировочный акт. Компания была основана в 2021 году бывшими исследователями OpenAI, которые ушли отчасти из-за озабоченности темпом и безопасностью развития AI. Её корпоративная идентичность строится на концепции ответственного AI, и она опубликовала обширные исследования по выравниванию AI, стандартам безопасности и рискам развертывания мощных систем AI без надлежащих мер безопасности.
В то же время Anthropic — это коммерческая компания, которая привлекла более 10 миллиардов долларов в финансирование и сталкивается с давлением по генерированию доходов. Государственные контракты представляют значительную деловую возможность, и агентства оборонной и разведывательной сфер входят в число самых заинтересованных и хорошо финансируемых покупателей передовых возможностей AI.
Компания уже предприняла шаги в направлении государственной работы. Модели Anthropic доступны через GovCloud компании Amazon Web Services, и компания взаимодействовала с различными государственными агентствами по вопросам безопасности AI и оценки. Однако она была более осторожна, чем некоторые конкуренты, в отношении явного военного партнерства, и её политика приемлемого использования налагает ограничения на определённые применения её технологии.
Более широкое разделение в индустрии
Встреча Хегсета и Амодеи отражает более широкое разделение в технологической индустрии по вопросу военного AI. Некоторые компании, как Palantir, Anduril и Shield AI, построили свой бизнес вокруг оборонных приложений и приняли Пентагон как основного клиента. Другие, включая некоторые из основных лабораторий AI, были более неоднозначны, балансируя коммерческие возможности с репутационными рисками связи с военными приложениями.
Google знаменито отказалась от Project Maven, программы Пентагона по применению AI к анализу снимков дронов, после протестов сотрудников в 2018 году. Компания позже изменила курс и с тех пор выиграла значительные оборонные контракты. Microsoft сохраняла последовательную позицию взаимодействия с военными, утверждая, что демократические нации должны иметь доступ к лучшим доступным технологиям.
- Пентагон ускоряет внедрение AI в разведку, логистику и автономные системы вооружения
- Военные чиновники утверждают, что США должны действовать быстрее, чтобы идти в ногу с военными программами AI Китая
- Сторонники безопасности AI беспокоятся о развертывании мощных систем в высокорисковых военных контекстах без надлежащих мер безопасности
- Несколько крупных компаний AI расширили государственную и оборонную работу, несмотря на первоначальное колебание
Что поставлено на кон
Дебаты о военном AI — это не просто академический вопрос. Решения, принятые в ближайшие месяцы и годы о том, как системы AI интегрируются в военные операции, могут иметь глубокие последствия для характера войны, риска эскалации и защиты гражданского населения в зонах конфликта.
Сторонники быстрого развертывания утверждают, что AI может сделать военные операции более точными и снизить гражданские потери, улучшая точность целевого назначения и осведомленность о боевой обстановке. Критики, в свою очередь, возражают, что технология еще недостаточно надежна для решений, касающихся жизни и смерти, и что развертывание систем вооружения AI может снизить порог для применения силы, сделав военные действия менее затратными.
Встреча между Хегсетом и Амодеи вряд ли разрешит эти напряжения, но она может помочь определить параметры взаимодействия Anthropic с оборонным истеблишментом. Если одна из наиболее ориентированных на безопасность компаний AI индустрии сможет найти работающую схему военного сотрудничества, это может служить шаблоном для других. Если переговоры сорвутся из-за непримиримых различий в стандартах безопасности, это может углубить разрыв между технологической индустрией и Пентагоном в то время, когда обе стороны говорят, что сотрудничество необходимо.
Определяющий момент
Для индустрии AI в целом растущая интеграция искусственного интеллекта в военные системы представляет определяющий момент. Технология, которая была развита в академических исследовательских лабораториях и коммерциализирована через потребительские чатботы, теперь просят выполнять некоторые из самых значительных задач, которые только можно представить. То, как этот переход будет управляться — и кем — определит не только будущее войны, но и будущее индустрии AI.
Эта статья основана на отчетах C4ISRNET. Прочитайте оригинальную статью.


