내부고발이 글로벌화되다

최근 몇 주간 AI 업계에서는 내부로부터의 공개적 반발 물결이 커지고 있습니다. OpenAI와 Anthropic을 포함한 세계 유수의 AI 기업들의 전직 안전 담당자와 연구원들이 고용주가 안전 테스트를 처리하고, 모델을 배포하며, 잠재적 위험에 관한 내부 경고에 대응하는 방식에 대한 우려를 공개적으로 표명했습니다. 이러한 폭로는 AI 안전 관행의 적절성과 업계의 빠른 개발 속도가 강력한 시스템을 책임감 있게 배포하는 능력을 앞지르고 있는지에 대한 격렬한 논쟁을 촉발했습니다.

이제 새로운 이니셔티브가 이러한 종류의 내부 보고를 글로벌 규모로 공식화하고 보호하려 하고 있습니다. 디지털 안전 신고 플랫폼인 Psst는 강력한 내부고발자 보호법이 없는 관할 지역에서도 전 세계 어디서든 AI 종사자들이 안전한 채널을 통해 안전 우려 사항을 문서화하고 제출할 수 있도록 합니다. 플랫폼의 창립 이사회 멤버인 변호사 Mary Inman은 목표가 AI 기업 종사자들이 어디에 있든 보복에 대한 두려움 없이 잠재적 위험에 대해 목소리를 낼 수 있도록 보장하는 것이라고 말합니다.

지리가 중요한 이유

내부고발자 보호는 국가마다 엄청나게 다릅니다. 미국에서는 연방법과 주법이 비위를 신고하는 직원들에게 어느 정도 보호를 제공하지만, 그 효과와 범위는 지속적인 논쟁의 대상입니다. 유럽연합에서는 2019년 채택된 내부고발자 지침이 모든 회원국에 기본적인 보호 수준을 제공하지만, 이행은 불균일했습니다.

그러나 AI 개발은 글로벌 활동입니다. 주요 AI 연구소들은 수십 개 국가에서 연구 사무소를 운영하고 인재를 채용하는데, 그 중 많은 국가들이 내부고발자 보호법이 최소화되어 있거나 아예 없습니다. 싱가포르, 인도, 아랍에미리트에서 일하는 안전 연구원이 고용주의 우려스러운 관행을 발견해도 커리어를 위협하지 않고 이를 신고할 법적 수단이 없을 수 있습니다. 더 심각한 결과를 초래할 수도 있습니다.

Psst는 거버넌스 문제에 기술 기반 솔루션을 제공함으로써 이 간극을 채우도록 설계되었습니다. 어느 국가에서든 접근 가능한 암호화된 익명 신고 채널을 제공함으로써, 이 플랫폼은 어떤 국가 법적 프레임워크에도 독립적으로 운영되는 안전망을 만들고자 합니다. 플랫폼을 통해 제출된 보고서는 우려 사항의 성격과 심각성에 따라 적절한 규제 기관, 학술 연구자 또는 공익 단체로 전달될 수 있습니다.

AI 안전 공개 폭로의 물결

Psst의 등장 시점은 중요합니다. 지난해는 주요 AI 기업의 현직 및 전직 직원들의 전례 없는 공개 폭로가 이어졌습니다. Mrinank Sharma의 Anthropic 퇴사와 이후 안전 관행에 관한 공개 성명은 광범위한 주목을 받았고, 여러 전직 OpenAI 직원들도 회사의 상업적 압박이 안전 공약을 훼손하고 있는지 의문을 제기했습니다.

이러한 폭로는 일반적으로 공개적으로 발언하는 개인적 비용을 감당할 수 있는 재정적 안정성, 이민 신분, 직업적 명성을 가진 사람들로부터 나옵니다. 비슷한 우려를 품고 있는 대다수의 AI 종사자들은 이러한 보호 장치가 없어 침묵을 지키고 있습니다. Psst의 주장은 공개된 우려가 빙산의 일각에 불과하며, 안전한 신고 메커니즘이 업계 전반에 걸쳐 훨씬 광범위한 안전 문제 전체 그림을 드러낼 수 있다는 것입니다.

검증의 도전

모든 내부고발자 플랫폼이 직면하는 근본적인 도전 중 하나는 검증입니다. 익명 보고는 신고자를 보호하지만, 뒷받침하기 어렵고 무시하기도 쉽습니다. 안전 결함으로 비난받은 기업들은 익명 주장이 신뢰성이 부족하다고 주장할 수 있으며, 명명된 고발자가 없으면 규제 기관이나 언론인이 조사하기가 더 어렵습니다.

Psst는 신고자의 신원을 노출하지 않고도 보고서의 신뢰성을 평가할 수 있는 신뢰할 수 있는 중개인과의 관계를 구축함으로써 이 문제를 해결하려 하고 있습니다. 이 플랫폼은 또한 종사자들이 내부 이메일, 테스트 결과, 회의록, 정책 문서 등 개인 증언과 독립적으로 우려 사항을 뒷받침할 수 있는 문서를 제출하도록 장려합니다.

업계 및 규제 기관의 반응

내부고발자 운동의 성장에 대한 AI 기업들의 반응은 엇갈렸습니다. 일부 기업은 내부 채널을 통해 안전 우려 사항을 제기하는 직원을 보호하겠다고 공개적으로 약속한 반면, 다른 기업들은 비평가들이 내부 반대 의견에 냉각 효과가 있다고 말하는 비밀유지 협약 및 기타 법적 수단을 사용했습니다.

규제 기관들은 면밀히 주시하고 있습니다. 유럽연합의 AI법은 안전 신고를 위한 공식 채널을 만들 수 있는 투명성과 책임에 관련된 조항을 포함하고 있습니다. 미국에서는 AI 안전에 관한 의회 청문회에서 AI 산업에 특화된 내부고발자 보호의 필요성이 거론되었지만, 포괄적인 입법은 아직 제정되지 않았습니다.

이것이 AI 개발에 의미하는 바

전용 AI 내부고발자 인프라의 등장은 AI 안전 논쟁이 추상적인 철학적 논의에서 실질적인 거버넌스 문제로 성숙해지고 있음을 반영합니다. AI 시스템이 더 강력해지고 중요 인프라, 의료, 금융, 국방 응용 분야에 더 깊이 통합될수록 부적절한 안전 관행의 결과는 점점 더 심각해집니다.

Psst와 유사한 이니셔티브들은 효과적인 AI 거버넌스가 기업의 자체 규제나 외부 정부 규제에만 의존할 수 없다는 인식을 나타냅니다. 이는 기술에 가장 가까운 사람들, 즉 이러한 시스템을 구축하는 연구자와 엔지니어들이 문제를 발견했을 때 자신의 커리어를 망치지 않고 경보를 울릴 수 있는 메커니즘을 필요로 합니다.

그러한 플랫폼이 업계 행동에 의미 있는 영향을 미칠 수 있는지는 지켜봐야 합니다. 그러나 AI 개발 속도가 AI 규제 속도를 지속적으로 앞지르는 시대에, 내부고발자 플랫폼은 중요한 조기 경보 시스템으로 기능하며 실제 피해로 나타나기 전까지 숨겨져 있을 수 있는 우려를 드러낼 수 있습니다.

이 기사는 Rest of World의 보도를 기반으로 합니다. 원문 기사 읽기.