금요일 최후통첩과 AI 윤리에 관한 냉전
Claude 언어 모델 제품군 뒤에 있는 AI 안전 회사 Anthropic이 미국 국방부와의 특별한 대립에 직면해 있습니다. 보도에 따르면 Pentagon은 Anthropic이 군사용 AI 기술 적용에 대한 제한을 완화할 것을 요구했으며, 특히 자율 무기 시스템과 대규모 감시에 사용되는 것을 금지하고 있습니다. Anthropic이 거부했고, 국방부는 Defense Production Act를 발동하겠다고 위협했는데, 이는 정부가 민간 기업에 국방 생산을 우선시하도록 강제할 수 있는 냉전 시대 법률입니다.
회사는 금요일까지 이에 응할 것을 요구받았습니다. Anthropic이 거부를 유지한다면, Pentagon은 법적으로 회사가 군사 목적으로 AI 역량에 대한 접근을 제공하도록 강제할 수 있으며, 이는 AI 산업에서 선례가 없는 법적, 윤리적 대립을 초래할 것입니다.
Anthropic이 제한한 것들
설립 이후 Anthropic은 자율 무기, 대규모 감시, 그리고 회사가 안전한 AI 개발 사명과 양립할 수 없다고 간주하는 기타 응용 프로그램에 대한 AI 모델 사용을 명시적으로 금지하는 허용 가능한 사용 정책을 유지하고 있습니다. 이러한 제한은 AI 산업에서 드문 것이 아니며 - 대부분의 주요 AI 회사들이 유사한 정책을 가지고 있습니다 - 하지만 Anthropic은 AI 안전성에 대한 핵심 조직 원칙으로서의 약속에 대해 특히 목소리를 높여왔습니다.
회사는 전 OpenAI 연구원인 Dario와 Daniela Amodei에 의해 설립되었으며, 일부는 AI 개발의 속도와 거버넌스에 대한 우려 때문입니다. 회사의 브랜드 정체성은 책임감 있는 AI 개발을 중심으로 구축되었으며, AI 정렬 및 해석가능성에 대한 연구는 인공지능에 대한 안전 우선 접근 방식의 리더로 자리매김했습니다. 군사 제한을 철회하면 회사의 기본 서사를 훼손할 것입니다.
Defense Production Act 위협
1950년 한국전쟁 중에 법으로 서명된 Defense Production Act는 대통령에게 국방에 필요하다고 간주되는 계약 및 주문을 우선순위로 하도록 민간 산업을 지휘할 광범위한 권한을 부여합니다. 최근 COVID-19 전염병 중 의료용품 생산을 강제하기 위해 여러 목적으로 주기적으로 발동되었지만, AI 회사가 군사 응용 프로그램을 위해 기술을 제공하도록 강제하는 데 사용하는 것은 이 법의 전례 없는 적용을 나타낼 것입니다.
법률 전문가들은 그러한 발동이 사법부의 정밀 조사를 견딜 수 있는지에 대해 의견이 나뉩니다. DPA는 물리적 상품 제조 - 철강, 탄약, 의료 장비 - 를 위해 설계되었지, 소프트웨어 회사가 서비스 약관을 변경하도록 강제하기 위해 설계된 것이 아닙니다. AI 모델 접근이 법에 따라 징발될 수 있는 "제품"을 구성하는지 여부의 문제는 법원이 아직 다루지 않은 새로운 법적 문제를 제기합니다.
- Pentagon, 자율 무기와 감시에 AI 사용 제한 제거를 Anthropic에 요구
- Anthropic, AI 안전성 원칙에 대한 기초적 약속을 들어 거부
- 국방부, 금요일 최후통첩까지 Defense Production Act 발동 위협
- 법률 전문가들, DPA가 소프트웨어 회사에 정책 변경을 강제할 수 있는지 의문
- 대립은 AI 회사에 대한 정부 권한의 선례를 설정할 수 있음
산업 영향
Anthropic과 Pentagon 간의 대립은 국가안보 기관과의 관계가 점점 더 복잡해지고 있는 AI 산업 전체에 충격파를 보냅니다. Google, Microsoft, Amazon, OpenAI는 모두 상당한 국방 계약을 보유하고 있으며, 각각 기술의 군사 응용 프로그램에 대해 내부 및 외부 압력에 직면해 있습니다. Google은 2018년 직원 항의 이후 Pentagon AI 프로그램인 Project Maven에서 유명하게 철수했지만, 이후 국방 업무를 확대했습니다.
Defense Production Act가 Anthropic에 대해 성공적으로 사용된다면, 미국에서 운영되는 모든 AI 회사가 자신의 윤리 지침에 관계없이 군사 목적으로 기술을 제공하도록 강제될 수 있다는 선례를 설정할 것입니다. 이러한 전망은 AI 안전 연구를 냉각시키고, 안전 중심의 회사들이 미국 관할권 외로 이전하도록 유도하거나, 회사들이 정부 계약과 안전 약속 중 선택해야 하는 양분된 산업을 만들 수 있습니다.
반대로, Anthropic이 법적 이의 제기나 정치적 협상을 통해 성공적으로 명령에 저항한다면, AI 회사들이 고객이 미국 정부일지라도 자신의 기술이 어떻게 사용되는지에 대한 윤리적 경계를 설정할 권리가 있다는 원칙을 강화할 수 있습니다.
더 넓은 긴장
대립은 대규모 언어 모델 및 기타 고급 AI 시스템이 명확한 군사 응용 프로그램이 있는 역량을 시연하기 시작한 이후 구축되어 온 근본적인 긴장을 반영합니다. 미국 정부는 AI 우위를 국가안보에 필수적이라고 보며, 특히 더 적은 윤리적 제약으로 군사 AI 응용 프로그램에 자원을 투입하고 있는 중국과의 경쟁에서 그렇습니다. Pentagon의 관점에서 주요 AI 회사가 국방 응용 프로그램에서 물러날 수 있도록 허용하는 것은 국가가 감당할 수 없는 사치입니다.
Anthropic의 관점에서, 제한은 정확히 회사가 강력한 AI 시스템의 제약 없는 군사 응용이 재앙적 위험을 초래한다고 믿기 때문에 존재합니다 - 사용자가 미국 제복을 입고 있다는 이유만으로는 제거되지 않는 위험입니다. 회사의 입장은 누가 요청하든 간에 일부 AI 응용 프로그램은 활성화하기에 너무 위험하다는 것입니다.
이 대립이 어떻게 해결되는지는 앞으로 몇 년 동안 AI 산업과 미국 정부 간의 관계를 형성할 가능성이 높습니다. 이는 AI 안전성 약속이 국가안보 명령의 중력을 견딜 수 있는지 여부에 대한 시험 사례이며 - 정부가 가장 강력한 법적 도구를 사용하여 그들이 그럴 수 없도록 할지 여부입니다.
이 기사는 The Decoder의 보도를 바탕으로 합니다. 원본 기사 읽기.

