국방 기업 전체의 AI 표준화

펜타곤은 자신의 성장하는 인공지능 제공업체 명단을 관계자들이 "동일한 기준선"이라고 설명하는 것에 맞추기 위해 조직적 노력을 기울이고 있으며, 군 내에서 AI 시스템이 어떻게 개발, 테스트, 배포 및 관리되는지에 대한 공통 표준을 수립합니다. 국방부의 연구 책임자에 의해 설명된 이 이니셔티브는 수십 개의 회사, 여러 군 부대, 그리고 물류 최적화에서 전장 의사결정 지원까지 광범위한 응용 프로그램에 걸친 확대되는 AI 생태계를 관리할 때의 도전 과제를 반영합니다.

지난 몇 년간 DOD는 AI 채택을 가속화하면서 Lockheed Martin 및 Raytheon과 같은 대규모 국방 계약업체에서 Palantir 및 Anduril과 같은 실리콘밸리 기업에서 소규모 전문 AI 스타트업에 이르기까지 다양한 기술 제공업체와 계약을 체결했습니다. 이 회사들 각각은 자신의 개발 관행, 테스트 방법론, 안전 및 윤리에 대한 접근 방식을 가지고 있습니다. 결과적으로 군 내의 AI 환경은 기술적으로 이질적이며 경우에 따라 일관되게 관리하기 어렵습니다.

실제로 "동일한 기준선"의 의미

표준화 노력은 AI 개발 및 배포의 여러 차원을 포함합니다.

  • 테스트 및 평가: DOD는 모든 AI 제공업체가 시스템의 성능, 신뢰성 및 오류 모드를 테스트하기 위해 비교 가능한 방법을 사용하기를 원합니다. 여기에는 표준화된 벤치마크 작업, 공통 평가 메트릭 및 서로 다른 시스템을 동등하게 비교할 수 있도록 하는 공유 테스트 인프라가 포함됩니다.
  • 안전성 및 견고성:군사 상황에 배포된 AI 시스템은 적대적 공격에 대한 탄력성, 입력이 훈련 분포 범위를 벗어날 때의 우아한 저하, 군사 작전을 특징으로 하는 극단적인 조건에서의 예측 가능한 동작에 대한 최소 표준을 충족해야 합니다.
  • 데이터 거버넌스:이 이니셔티브에는 훈련 데이터가 제공업체 전체에서 어떻게 수집, 레이블 지정, 저장 및 공유되는지에 대한 표준이 포함됩니다. 데이터 품질은 AI 시스템 성능의 결정적 요소이며, 제공업체 간 일관되지 않은 데이터 관행은 일관되지 않은 결과로 이어질 수 있습니다.
  • 상호운용성:군의 AI 시스템은 점점 더 서로 그리고 기존의 지휘 통제 인프라와 통신해야 합니다. 공통의 인터페이스 표준과 데이터 형식이 이러한 통합을 가능하게 하는 데 필수적입니다.
  • 문서화 및 감사 가능성:제공업체는 시스템이 어떻게 훈련되었는지, 어떤 데이터가 사용되었는지, 어떤 테스트가 수행되었는지, 어떤 제한 사항이 확인되었는지에 대한 상세한 기록을 유지할 것으로 예상됩니다. 이 문서화는 운영 신뢰와 법적 책임 모두에 필수적입니다.

윤리적 측면

펜타곤의 AI 표준화 노력에서 가장 주시되는 측면 중 하나는 부서의 AI 윤리 원칙과의 교차점입니다. DOD는 2020년에 AI 윤리 원칙을 채택하여 5가지 약속을 수립했습니다. AI 시스템은 책임 있고, 공정하고, 추적 가능하고, 신뢰할 수 있고, 관리 가능해야 합니다. 이러한 원칙은 책임 있는 군사 AI를 위한 의미 있는 틀로서 일부 사람들에게 찬사를 받았고 실제 개발 및 배포 결정을 제한하기에는 너무 모호하다고 다른 사람들에게 비판을 받았습니다.

DOD 연구 책임자는 표준화 노력이 이러한 원칙을 운영 가능하게 하는 것을 목표로 하며 이를 대체하려는 것이 아니라고 강조했습니다. 모든 제공업체가 충족해야 하는 테스트, 문서화 및 안전에 대한 구체적인 표준을 수립함으로써 부서는 윤리적 약속에 실질적인 력을 부여하려고 합니다. 아이디어는 "추적 가능성"과 같은 추상적 원칙이 로깅, 감사 및 AI 시스템 결정 설명에 대한 구체적인 요구사항으로 번역될 때 의미 있게 된다는 것입니다.

이것은 군이 더 중대한 결과를 낳는 AI 응용 프로그램으로 이동함에 따라 특히 중요합니다. 공급망 물류를 최적화하는 AI 시스템은 대상을 식별하거나 무력 사용을 권장하는 AI 시스템과 다른 윤리적 우려를 제기합니다. 표준화 노력은 거버넌스 프레임워크가 응용 프로그램의 중요도에 맞게 적절히 확장되도록 하는 것을 목표로 합니다.

표준화의 과제

국방 기업 전체에 공통의 AI 표준을 수립하는 것은 여러 가지 이유로 막대한 과제입니다. 기술 자체가 빠르게 발전하고 있으며, 오늘 적절한 표준은 몇 년 내에 구식이 될 수 있습니다. 군 내의 AI 응용 프로그램의 다양성은 만능의 접근 방식이 작동할 가능성이 낮다는 것을 의미합니다. 정보 보고서를 요약하는 자연어 처리 시스템의 표준은 자율 차량을 안내하는 컴퓨터 비전 시스템의 표준과 반드시 다릅니다.

표준화와 혁신 사이에도 긴장이 있습니다. 국방 AI 커뮤니티는 서로 다른 회사가 다른 접근 방식을 가져오고 이러한 다양성이 혁신을 주도하기 때문에 의도적으로 다양한 제공업체 생태계를 육성해왔습니다. 지나치게 엄격한 표준은 획기적인 기능을 생성하는 실험을 질식시킬 수 있으며, 지나치게 느슨한 표준은 군사 상황에서 AI 배포의 실제 위험을 해결하지 못할 수 있습니다.

이러한 긴장을 헤쳐나가려면 DOD가 안전과 책임을 보장하기에 충분히 엄격하면서도 AI 개발의 빠른 속도를 수용할 수 있을 만큼 충분히 유연한 표준 틀을 채택해야 합니다. 관계자들은 모든 AI 시스템에 적용되는 기준선 요구사항과 응용 프로그램의 민감도 및 결과에 따라 확장되는 추가 요구사항을 갖춘 계층화된 접근 방식을 추구하고 있음을 시사합니다.

업계의 대응

국방 AI 산업의 표준화 노력에 대한 대응은 일반적으로 긍정적이었지만 약간의 예약이 있습니다. 광범위한 규제 요구사항에 익숙한 대규모 국방 계약업체는 명확한 표준이 불확실성을 줄이고 준수할 자원이 있는 회사에 경쟁 우위를 제공하기 때문에 일반적으로 명확한 표준을 환영합니다. 그러나 소규모 스타트업은 번거로운 준수 요구사항이 소규모 기업에 불균형적으로 영향을 미칠 수 있으며 혁신 속도를 늦출 수 있다는 우려를 표명했습니다.

DOD는 표준 틀 개발에서 산업 의견을 추구하고 있으며, 일방적인 하향식 표준이 협업적으로 개발된 표준보다 효과적일 가능성이 낮다는 것을 인식합니다. 제안된 테스트 방법론, 문서화 요구사항 및 안전 벤치마크에 대한 피드백을 제공하기 위해 여러 산업 워킹 그룹이 소집되었습니다.

이러한 표준화 노력의 결과는 군 이상의 영향을 미칠 것입니다. 미국의 AI 기술의 가장 큰 단일 소비자로서, DOD의 표준 결정은 AI 회사가 제품을 개발하는 방법과 더 넓은 기술 산업이 AI 안전 및 거버넌스에 접근하는 방식에 영향을 미칠 것입니다. 올바르게 되는 것은 국가 안보뿐만 아니라 AI 개발 전체의 궤적에 중요합니다.

이 기사는 Defense One의 보도를 기반으로 합니다. 원본 기사를 읽어보세요.