AIを使った新たな脅威が学校に及んでいる

英国の児童保護専門家は、犯罪者がAIツールを使って性的に露骨な素材を作成するために生徒の特定可能な写真を悪用したことを受け、学校に対し、ウェブサイトやソーシャルメディアからそのような写真を削除するよう求めている。この警告は、少なくとも1件確認された事案に続くものだ。そこでは、匿名の中等学校が標的となり、犯罪者が公的なオンライン情報源から生徒の写真を入手して虐待的な画像に加工し、それを公表しない代わりに金銭を要求した。

インターネット・ウォッチ財団が説明したこの事案は、オンライン上の被害が特に不穏な形で進化していることを示している。既に存在する親密画像を盗むのではなく、加害者は今や、学校の普通の記念写真、行事の写真、ソーシャルメディア投稿からそれを捏造できる。これにより虐待への敷居は下がり、日常的なオンライン露出そのものが強要の潜在的な源になる。

報告された事案で何が起きたのか

提供された報告によると、インターネット・ウォッチ財団は、英国の匿名の中等学校が、犯罪者が同校のウェブサイトやソーシャルメディアアカウントから取得した写真を使った脅迫未遂の標的になったと述べた。AIツールを使ってそれらの画像を児童性的虐待素材に変え、支払わなければオンラインで公開すると学校に送りつけたという。

同団体は、脅迫画像をデジタルハッシュ、つまり指紋情報に変換し、主要テクノロジープラットフォームと共有して、素材のアップロードを防ぐ支援を行ったと説明した。また監視団体は、この事件の150枚の画像が英国法上、児童性的虐待素材に分類され得ると述べた。

当局者は、これが孤立した懸念ではないと示した。インターネット・ウォッチ財団によると、学校のウェブサイトやソーシャルアカウントから取られた加工画像を使った英国での他の脅迫未遂も把握しているが、それらの詳細は公表されていないという。

なぜ学校の対応を変えるよう求められているのか

専門家の提言は明確だ。学校のウェブサイトやソーシャルメディアから生徒の顔が特定できる写真を削除するか、そもそも使わないことを検討すべきだという。この助言は、脅威モデルが変化したことを反映している。従来、学校は同意、プライバシー設定、投稿へのコメント制限に重点を置いてきたかもしれない。しかし生成AIの台頭によって、リスクはもはや元の画像の不正利用だけではない。画像そのものが合成的な虐待の原材料になり得る。

学校にとって、これは難しい選択を迫る。生徒の学校生活の写真は、地域とのつながりを伝え、成果を祝い、親しみやすい公共イメージを示すためによく使われる。だが、かつては概ね無害に思えた公開性は、今やより鋭いリスクを伴う。特に、画像が簡単にダウンロード、切り抜き、大規模再利用できる場合はなおさらだ。