扩展换脸防护盾

YouTube宣布扩展其AI驱动的换脸检测能力,以覆盖政治人物。此举恰值AI生成的合成媒体变得越来越复杂,越来越难以与真实内容区分。该平台表示,更新后的系统可以自动识别和标记那些描绘政治人物说或做他们从未实际说过或做过的事情的操纵视频。

这一扩展建立在YouTube已部署用于检测包含公众人物的AI生成内容的现有工具基础之上。该平台以前将其检测工作重点放在未经同意而使用其肖像的名人和内容创作者身上。将这些能力扩展到政治人物,表明合成媒体在政治领域构成了一种独特且可能更危险的威胁。

检测工作原理

YouTube的换脸检测系统使用多个AI模型协同工作,来分析视频是否存在合成生成或操纵的迹象。该系统检查面部运动、唇形同步、音频特性以及当前一代AI视频工具的特征性视觉伪影。

当系统识别出视频可能是AI生成或被操纵时,它可以根据具体情况采取多种措施。明显违反YouTube欺骗性行为政策的视频可能会被完全删除。其他视频可能会被标上标签,表明它们含有AI生成的内容,允许观众对自己所看的内容做出知情判断。

该公司表示已在已知换脸和真实政治素材的大型数据集上训练其模型,但尚未披露其方法的具体技术细节。YouTube还表示,它在不断更新其模型,以跟上快速改进的生成技术,这是检测和创建之间可能加剧的军备竞赛。

特朗普问题

当被问及扩展的检测是否特别涵盖前总统唐纳德·特朗普时,YouTube拒绝提供直接答复。该公司表示,其系统旨在保护所有政治人物,而不点名特定个人。这种非答复招致了双方的批评。

特朗普一直是AI生成内容的频繁目标,从明显的讽刺性操纵到可能被合理地误认为是真实视频的更令人信服的换脸。作为重要政治人物和在线讨论的频繁主题,他对换脸创作者来说特别是一个高价值目标。

该平台不愿点名其保护的特定个人,可能反映了其希望避免政治偏见的认知。任何关于保护或不保护特定政治人物的明确声明,都可能被解释为YouTube采取了政治立场,而该公司尽管在日益政治化的媒体环境中运营,仍一直试图避免这种解释。

更广泛的换脸威胁

这一扩展发生在AI生成的政治内容迅速扩散之际。来自OpenAI、Google和各种开源项目的公司在视频生成模型方面取得的进展,使得以最少的技术专业知识和几乎零成本创建令人信服的虚假视频成为可能。

在全球选举周期中,换脸被用来描绘政治人物发表煽动性言论、支持他们反对的候选人或从事丑闻行为。在几个国家,病毒性换脸在被确认为虚假之前已经影响了公众舆论,这表明了威胁的非对称性:换脸可在几分钟内传播,而辟谣需要数天。

社交媒体平台是政治换脸的主要传播渠道,使得平台级别的检测成为关键防线。然而,检测本质上是被动的,只能在虚假内容创建和上传后才能识别。最复杂的换脸可能完全逃脱检测,特别是当生成技术的改进速度快于检测能力的改进时。

监管压力

YouTube的换脸检测扩展发生在平台面临日益增加的监管压力来应对AI生成的虚假信息的背景下。欧盟的AI法案包含与合成媒体标签相关的条款,美国几个州已经通过或正在考虑专门针对政治换脸的法律。

在联邦层面,对AI生成选举干扰的两党关切已产生多项立法提案,但迄今为止尚未成为法律。缺乏全面的联邦监管意味着平台在很大程度上自主监管其对换脸的处理方式,严谨程度和透明度各不相同。

批评者认为,鉴于风险之高,平台自我监管是不足够的。当一个令人信服的政治领导人换脸理论上可能影响选举或引发地缘政治危机时,依靠私人公司来解决该问题会造成问责差距。如果YouTube的检测系统未能捕捉到一个重要的换脸,将没有监管机构有权追究该平台的责任。

接下来会发生什么

YouTube的换脸检测扩展是整个行业更认真对待合成媒体的更广泛趋势的一部分。Google(YouTube的所有者)也在为其他平台开发检测工具,并为内容溯源和身份验证的行业标准做出了贡献。

由Adobe、Microsoft等支持的Content Authenticity Initiative正在开发技术标准,以将溯源元数据嵌入数字内容中,从而创建可以验证视频是否真实的监管链。这些标准通过提供真实性的正信号而不是仅依靠识别虚假,来补充平台级别的检测。

然而,根本性的挑战仍然存在:AI生成技术的发展速度快于检测和身份验证能力。YouTube的扩展检测代表了一个有意义的步骤,但这只是一场持续的军备竞赛中的一步,该竞赛似乎短期内不会达到平衡。

本文基于Gizmodo的报道。阅读原始文章