一种新的 AI 赋能威胁正在波及学校

英国的儿童安全专家敦促学校从网站和社交媒体上移除可识别学生身份的照片,此前勒索者利用这类图像借助 AI 工具制作性露骨材料。这一警告源于至少一起已确认的案例:某所未具名的中学在犯罪分子从公开网络来源获取学生照片、将其篡改为虐待图像后,成为攻击目标,随后对方索要钱财,威胁若不付款就会公开这些材料。

互联网观察基金会描述的这起案件,揭示了网络伤害的一种尤其令人不安的演变。与其去窃取已经存在的私密材料,作案者如今可以仅凭普通的学校合影、活动照片或社交媒体帖子来伪造这类内容。这降低了实施虐待的门槛,也让原本常规的网络可见性都可能成为胁迫来源。

报道中的案件经过

根据所提供的报告,互联网观察基金会表示,一所未具名的英国中学遭遇勒索企图,犯罪分子使用从该校网站或社交账号上取来的照片。借助 AI 工具,他们将这些图像转化为儿童性虐待材料,并把结果发送给学校,威胁若不付款就会将其发布到网上。

该组织称,它已将这些勒索图像转换成数字哈希,也就是指纹,并把这些数据分享给主要科技平台,以帮助阻止相关材料被上传。该监督机构还表示,该事件中的 150 张图像在英国法律下可被归类为儿童性虐待材料。

官员们表示,这并非孤立的担忧。互联网观察基金会称,它已知悉英国境内还有其他勒索企图,涉及从学校网站或社交账号中取出的篡改图像,即便这些案件的细节并未公开披露。

为何学校被要求改变做法

专家给出的建议非常明确:从网站和社交媒体上移除可识别学生面容的照片,或者考虑完全不使用这类照片。这一建议反映出威胁模型已发生变化。过去,学校可能更关注同意、隐私设置或限制帖子的评论功能。生成式 AI 的兴起意味着,风险不再只是原始图像被滥用。图像本身也可能成为合成虐待的原料。

对学校而言,这带来了艰难取舍。学生生活照常被用于传达社区氛围、庆祝成就,并展现一个友好的公共形象。但过去看似大体无害的公开可见性,如今却带来更尖锐的风险,尤其是在图像很容易被下载、裁剪并大规模再利用的情况下。