높은 수준의 회담
국방장관 Pete Hegseth는 Anthropic CEO Dario Amodei와의 회담을 예정하고 있으며, 이는 인공지능이 미군에서 어떻게 사용되어야 하는지에 대한 논쟁의 심화를 강조한다. 이 회담은 정보 분석에서 물류 관리, 자율 무기 시스템에 이르기까지 다양한 군사 응용 분야에 AI를 배포하려는 국방부의 노력이 가속화되고 있는 시점에서 진행된다.
Claude 모델 계열을 개발한 AI 안전 회사 Anthropic은 AI 산업에서 신중한 목소리로 자리잡았으며, 안전 연구와 책임감 있는 배포의 중요성을 강조한다. Pentagon과 직접 협력하려는 회사의 의지는 정부 파트너십에 대한 접근 방식의 주목할 만한 진화를 나타내며, Hegseth와의 회담은 향후 몇 년간 그 협력의 조건을 정할 수 있다.
Pentagon의 AI 포부
국방부는 수년간 인공지능에 막대한 투자를 해왔지만, 현 행정부 하에서 그 속도가 급격히 가속화되었다. Pentagon의 Chief Digital and Artificial Intelligence Office (CDAO)는 모든 군 부대에서 AI 도입을 확대하도록 지시받았으며, 국방부는 AI 관련 업무를 위해 기술 회사들에 수십억 달러의 계약을 수여했다.
중점 분야에는 군사 장비의 예방 정비, 위성 이미지 및 신호 데이터의 자동화된 정보 분석, 전장 지휘관을 위한 의사결정 지원 도구, 그리고 가장 논쟁이 되는 분야인 다양한 수준의 인간 감시 하에서 목표를 식별하고 공격할 수 있는 자율 무기 시스템이 포함된다.
Hegseth는 미국이 군사 응용 분야에서 AI를 배포하는 속도를 높여야 한다고 목소리를 높이고 있으며, 그렇지 않으면 AI 기반 전쟁을 군사 현대화 전략의 중심 기둥으로 삼은 중국에 뒤처질 위험이 있다고 주장한다. 그의 입장은 AI 안전에 대한 과도한 신중함이 위험한 능력 격차를 야기할 수 있다는 국방 부문 내의 광범위한 우려를 반영한다.
Anthropic의 줄타기
Anthropic에게 Hegseth와의 회담은 섬세한 줄타기를 의미한다. 이 회사는 2021년 OpenAI의 전 연구자들에 의해 설립되었으며, 그들은 AI 개발의 속도와 안전성에 대한 우려로 인해 떠났다. 회사의 기업 정체성은 책임감 있는 AI의 개념을 중심으로 구축되어 있으며, AI 정렬, 안전 벤치마크, 그리고 충분한 안전 장치 없이 강력한 AI 시스템을 배포할 때의 위험성에 관한 광범위한 연구를 발표했다.
동시에 Anthropic은 100억 달러 이상의 자금을 모금한 상업 회사이며 수익 창출 압박을 받고 있다. 정부 계약은 상당한 사업 기회를 나타내며, 국방부 및 정보 기관은 고급 AI 기능의 가장 열정적이고 잘 자금조달된 고객 중 하나이다.
회사는 이미 정부 업무를 향한 조치를 취했다. Anthropic의 모델은 Amazon Web Services의 GovCloud를 통해 사용 가능하며, 회사는 AI 안전 및 평가에 관해 다양한 정부 기관과 협력해왔다. 그러나 명시적인 군사 파트너십에 대해서는 일부 경쟁사보다 더 신중했으며, 수용 가능한 사용 정책은 기술의 특정 응용 분야에 제한을 두고 있다.
더 넓은 산업 분열
Hegseth-Amodei 회담은 군사 AI를 둘러싼 기술 산업 내의 더 넓은 분열을 반영한다. Palantir, Anduril, Shield AI 같은 일부 회사들은 방위 응용 분야를 중심으로 사업을 구축했으며 Pentagon을 주요 고객으로 받아들였다. 일부 주요 AI 연구소를 포함한 다른 회사들은 더 양면적이었으며, 상업적 기회와 군사 응용과의 연관성으로 인한 평판 위험 사이의 균형을 맞추고 있다.
Google은 2018년 직원 항의 후 Pentagon의 드론 이미지 분석에 AI를 적용하는 프로그램인 Project Maven에서 철수했다. 회사는 나중에 입장을 바꿨으며 이후 상당한 국방 계약을 획득했다. Microsoft는 민주주의 국가들이 사용 가능한 최고의 기술에 접근할 수 있어야 한다고 주장하면서 군부와의 협력에 대해 일관된 입장을 유지해왔다.
- Pentagon은 정보, 물류, 자율 무기 전반에 걸쳐 AI 도입을 가속화하고 있다
- 국방 관계자들은 중국의 군사 AI 프로그램에 보조를 맞추기 위해 미국이 더 빠르게 움직여야 한다고 주장한다
- AI 안전 옹호자들은 충분한 안전 장치 없이 높은 위험 군사 맥락에 강력한 시스템을 배포하는 것에 대해 우려한다
- 여러 주요 AI 회사들은 초기 망설임에도 불구하고 정부 및 국방 업무를 확대했다
위기에 처한 것들
군사 AI에 대한 논쟁은 단순히 학문적인 것이 아니다. 앞으로 몇 개월과 몇 년 동안 AI 시스템이 군사 작전에 어떻게 통합되는지에 대한 결정은 전쟁의 성질, 확대의 위험, 그리고 갈등 지역의 민간인 보호에 깊은 영향을 미칠 수 있다.
신속한 배포를 주장하는 옹호자들은 AI가 목표 정확도와 상황 인식을 개선하여 군사 작전을 더욱 정밀하게 하고 민간인 피해를 줄일 수 있다고 주장한다. 비평가들은 기술이 생사를 결정하는 결정에 아직 충분히 신뢰할 수 없으며, AI 무기 시스템을 배포하면 군사 행동을 비용 효율적으로 보이게 함으로써 무력 사용 기준을 낮출 수 있다고 반박한다.
Hegseth와 Amodei 간의 회담은 이러한 긴장을 해결할 가능성이 낮지만, Anthropic이 국방 부문과 어떻게 관계를 맺을 것인지 그 매개변수를 정의하는 데 도움이 될 수 있다. AI 산업의 가장 안전의식이 높은 회사 중 하나가 군사 협력을 위한 실행 가능한 틀을 찾을 수 있다면, 이는 다른 회사들이 따를 수 있는 템플릿을 설정할 수 있다. 안전 기준에 관한 화해 불가능한 차이로 회담이 결렬된다면, 양쪽이 협력이 필수라고 말하는 시점에 기술 산업과 Pentagon 사이의 분열을 심화시킬 수 있다.
결정적인 순간
AI 산업 전체로서, 인공지능이 군사 시스템에 점점 더 많이 통합되는 것은 결정적인 순간을 나타낸다. 학문 연구 기관에서 배양되고 소비자 챗봇을 통해 상용화된 기술이 이제 상상할 수 있는 가장 중대한 업무 중 일부를 수행하도록 요청받고 있다. 이 전환이 어떻게 관리되고 누구에 의해 관리되는지는 전쟁의 미래뿐만 아니라 AI 산업 자체의 미래를 결정할 것이다.
이 기사는 C4ISRNET의 보도를 기반으로 합니다. 원문 읽기.


