全球化的举报行动

近几周来,AI行业见证了来自内部的公开异议浪潮。来自全球顶尖AI公司(包括OpenAI和Anthropic)的前安全工作人员和研究人员,相继就雇主处理安全测试、部署模型以及应对内部风险警告的方式公开表达关切。这些披露引发了关于AI安全实践是否足够,以及行业快速发展的步伐是否超越了其确保强大系统负责任部署能力的激烈争论。

现在,一项新举措正试图在全球范围内将这种内部报告正式化并加以保护。Psst是一个数字安全举报平台,允许全球任何地方的AI工作者通过安全渠道记录和提交安全问题,即使在缺乏健全举报人保护法律的司法管辖区也不例外。该平台创始董事会成员、律师Mary Inman表示,目标是确保AI公司的员工能够无惧报复地就潜在危害发声,无论他们在哪里工作。

地理位置为何重要

举报人保护因国家而异,差异巨大。在美国,联邦和州法律为举报违法行为的员工提供了一定保护,尽管其有效性和范围仍是持续争议的话题。在欧盟,2019年通过的举报人指令为成员国提供了基础保护,但实施情况参差不齐。

但AI开发是一项全球性活动。主要AI实验室在数十个国家运营研究办公室并招募人才,其中许多国家的举报人保护法律极为有限甚至完全缺失。在新加坡、印度或阿联酋工作的安全研究人员,如果发现雇主存在令人担忧的做法,可能没有任何法律途径来报告这些问题,而不冒着损害职业生涯乃至更严重后果的风险。

Psst的设计旨在通过提供基于技术的解决方案来填补这一治理空白。通过提供可从任何国家访问的加密匿名举报渠道,该平台旨在建立一个独立于任何国家法律框架运作的安全网。通过平台提交的报告可根据问题的性质和严重程度转交给相应的监管机构、学术研究人员或公众利益组织。

AI安全披露浪潮

Psst出现的时机意义重大。过去一年见证了现任和前任顶尖AI公司员工公开披露的前所未有的数量。Mrinank Sharma离开Anthropic后关于安全实践的公开声明引发广泛关注,多位前OpenAI员工也质疑该公司的商业压力是否损害了其安全承诺。

这些披露通常来自具有足够财务安全、移民身份和专业声誉,能够承担公开发言个人代价的人。绝大多数持有类似顾虑的AI工作者缺乏这些保护,只能保持沉默。Psst的核心理念是,已披露的问题只是冰山一角,而安全举报机制可以在整个行业揭示更广泛的安全问题图景。

核实的挑战

任何举报人平台面临的根本挑战之一是核实问题。匿名举报虽然保护了举报人,但往往难以证实,也容易被忽视。被指控存在安全漏洞的公司可以辩称匿名指控缺乏可信度,而没有具名指控者也使监管机构或记者更难展开调查。

Psst正通过与可信中间人建立关系来应对这一问题,这些中间人可以在不暴露举报人身份的情况下评估报告的可信度。该平台还鼓励工作者提交文件——内部电子邮件、测试结果、会议记录、政策文件——这些文件可以独立于个人证词来证实其关切。

行业和监管回应

AI公司对日益壮大的举报人运动的反应喜忧参半。一些公司公开承诺保护通过内部渠道提出安全问题的员工,而另一些公司则使用保密协议和其他法律手段,批评者认为这对内部异见产生了寒蝉效应。

监管机构正在密切关注。欧盟的AI法案包含与透明度和问责制相关的条款,可能为安全举报创建正式渠道。在美国,关于AI安全的国会听证会涉及了需要专门针对AI行业的举报人保护的问题,尽管尚未颁布全面立法。

这对AI发展意味着什么

专门的AI举报基础设施的出现,反映了AI安全辩论从抽象哲学讨论向实际治理问题的成熟转变。随着AI系统变得越来越强大,并越来越深度融入关键基础设施、医疗保健、金融和国防应用,安全实践不足的后果变得越来越严重。

Psst和类似举措代表着一种认知:有效的AI治理不能仅仅依赖公司自我监管或政府从外部监管。它需要能够赋权给最接近技术的人——构建这些系统的研究人员和工程师——在发现问题时发出警报,而不必在此过程中毁掉自己的职业生涯的机制。

这类平台是否能够有意义地影响行业行为,仍有待观察。但在AI发展步伐始终超越AI监管步伐的时代,举报人平台可能作为重要的预警系统,揭示那些可能在演变为现实危害之前一直隐藏的问题。

本文基于Rest of World的报道。阅读原文