냉전 시대의 도구, 새로운 기술 시대에
미국 국방부와 세계 주요 AI 회사 중 하나인 Anthropic의 관계가 극심한 긴장 상태에 도달했습니다. 국방부 장관 Pete Hegseth는 Anthropic에 명확한 최후통첩을 내렸습니다: 금요일까지 자신의 AI 기술의 무제한적인 군사 사용을 허용하거나 Pentagon 공급망에서 완전히 제외되든지 선택하라는 것입니다.
화요일 워싱턴의 긴장 속 회의 동안 이 위협이 나왔습니다. 여기서 Hegseth는 Anthropic CEO Dario Amodei를 소환했고, 소식통들은 이를 회사의 AI 모델에 대한 비밀 작전용 무제한적 군사 접근 부여 거부에 대한 대결로 설명했습니다. 가장 논쟁이 되는 요구 사항 중에는 직접적인 인간 감시 없는 국내 감시 능력 및 치명적 자동화 임무 제공이 포함되었습니다.
특히 눈에 띄는 것은 Hegseth의 Defense Production Act 발동입니다. 이는 냉전 시대 법규로서 대통령에게 국내 산업이 국방 우선순위를 충족하도록 강제할 수 있는 광범위한 권한을 부여합니다. 원래 공장들이 전시 생산으로 전환할 수 있도록 하기 위해 고안되었지만, 이 법이 AI 회사에 기술을 넘기도록 강제하는 데 사용된 적은 없습니다 — 이는 미국 기술 정책의 역사에서 전례 없는 위협을 만듭니다.
압박 속의 Anthropic의 안전 우선 입장
Anthropic은 오랫동안 안전 연구와 책임감 있는 배포에 중점을 두어 AI 산업에서 두각을 나타냈습니다. 전 OpenAI 연구원 Dario와 Daniela Amodei에 의해 설립된 회사는 constitutional AI라는 개념을 중심으로 브랜드를 구축했습니다 — 오용을 방지하기 위한 내장된 윤리적 가드레일로 설계된 시스템입니다.
이러한 안전 우선 철학은 이제 Pentagon의 군사 작전 전역에 걸친 AI 통합에 대한 확대된 욕구와 충돌하는 방향으로 회사를 이끌고 있습니다. Anthropic은 모든 국방 계약에 반대하지는 않았지만, 특히 의미 있는 인간 통제 없는 자동화된 치명적 력과 국내 인구를 대상으로 하는 대규모 감시 프로그램과 관련된 특정 응용 분야에서 확고한 선을 그었습니다.
회사의 입장은 AI 산업 내에서 윤리적 경계를 어디에 그을 것인가에 대한 더 광범위한 논쟁을 반영합니다. OpenAI와 Google을 포함한 다른 주요 AI 회사들도 군사 계약을 다루었지만, 대부분은 국방 기관과의 계약 조건을 협상하는 데 더 기꺼이 참여했습니다. Anthropic의 더 강경한 입장은 Washington의 점점 더 공격적인 AI 무기화 추진에서 피뢰침이 되었습니다.
Defense Production Act: 이례적인 무기
Defense Production Act는 Korean War의 초기 단계인 1950년에 법안으로 서명되었습니다. 원래의 목적은 간단했습니다: 미국 산업이 군사 필요를 지원하기 위해 빠르게 생산을 전환할 수 있도록 보장하는 것입니다. 수십 년에 걸쳐 반도체 제조부터 팬데믹 의료 공급망까지 모든 것에 대해 발동되었습니다.
그러나 AI 회사에 모델에 대한 접근을 부여하도록 강제하기 위해 DPA를 적용하는 것은 근본적으로 다른 종류의 개입을 의미합니다. 물리적 상품과는 달리 AI 모델은 기능과 위험이 깊이 얽혀 있는 지적 재산입니다. 회사에 기술에서 안전 가드레일을 제거하도록 강제하는 것은 전통적인 구매 분쟁을 훨씬 넘어서는 질문을 제기합니다.
법률 전문가들은 DPA의 그러한 사용이 즉각적인 법원 도전에 직면할 가능성이 높다고 지적했습니다. 이 법은 생산 및 공급망 우선순위를 위해 설계되었지만, 회사의 기술 배포 방식에 관한 내부 안전 정책을 무시하기 위해 설계되지 않았습니다. 이를 발동하려는 어떤 시도도 전체 기술 부문에 광범위한 영향을 미치는 선례를 설정할 수 있습니다.
산업 반응 및 더 광범위한 함의
이 대치는 Silicon Valley에 충격파를 보냈습니다. 다른 AI 회사들은 결과가 정부가 민간 AI 부문과 상호 작용하는 방식에 대한 새로운 규범을 설정할 수 있다는 것을 인식하면서 면밀히 주시하고 있습니다. 여러 업계 지도자들은 Pentagon의 요구에 양보하는 것이 많은 사람들이 AI의 치명적 오용을 방지하기 위해 필수적이라고 생각하는 안전 연구를 약화시킬 수 있다는 우려를 비공개적으로 표현했습니다.
의회의 반응은 다양했습니다. Armed Services 위원회의 강경파들은 Hegseth의 입장을 지지했으며, 국가 안보가 기업의 안전 선호보다 우선되어야 한다고 주장했습니다. 특히 Senate Commerce Committee의 일부 의원들은 AI 회사들을 강압하는 것이 인재와 혁신을 해외로 몰아낼 수 있으며, 궁극적으로 미국의 경쟁력을 약화시킬 수 있다고 경고했습니다.
European Union도 주목했습니다. EU 관리들은 이 대면을 자신들의 더욱 규제적인 AI 거버넌스 접근 방식을 지지하는 증거로 지적했으며, 한 고위 외교관은 이 사건이 AI 안전 결정을 정치 지명자들의 기분에 맡기는 위험을 강조한다고 언급했습니다.
다음에 어떻게 될까
금요일의 기한이 크게 다가오고 있습니다. Anthropic이 준수를 거부할 경우, Hegseth는 회사를 국방 구매 채널에서 제거하겠다는 위협을 따를 수 있으며, 상당한 수익 흐름을 끊고 다른 AI 회사들에게 메시지를 보낼 수 있습니다. Defense Production Act 옵션은 여전히 테이블 위에 있지만 불확실한 법적 결과로 인한 훨씬 더 극적인 확대를 의미할 것입니다.
Anthropic의 입장에서 이 계산은 존재론적입니다. 항복하는 것은 회사의 기업 정체성을 정의하는 안전 원칙을 약화시키고 회사의 윤리적 약속 때문에 구체적으로 합류한 직원들의 신뢰를 침식할 수 있습니다. 저항하는 것은 회사가 정부 계약뿐만 아니라 AI 규제가 Washington에서 적극적으로 형성되고 있는 시기에 정치적 호의도 잃을 수 있습니다.
결과가 무엇이든, 이 대면은 한 가지를 분명히 했습니다: AI 회사들과 정부 사이의 밀월 관계는 끝났습니다. AI 정책에 대한 정중한 협력의 시대는 분기 이익이 아니라 인류 역사상 가장 강력한 기술이 어떻게 통제될 것인가에 대한 근본적인 질문에서 이해 관계가 측정되는 강압적 협상의 시대로 변하고 있습니다.
이 기사는 Ars Technica의 보도를 기반으로 합니다. 원문 읽기.


