ディープフェイクシールドの拡張

YouTubeは、AI搭載のディープフェイク検出機能を政治人物に対応させるための拡張を発表しました。これはAI生成の合成メディアがますます高度化し、本物のコンテンツと区別することが難しくなっている時期に行われます。プラットフォームは、更新されたシステムが、政治家が実際に言ったり行ったりしたことのない操作されたビデオを自動的に識別およびフラグを立てることができると述べています。

この拡張は、YouTubeが公的人物を特色とするAI生成コンテンツを検出するために展開した既存ツールの上に構築されています。プラットフォームは以前、同意なしに使用されている類似点を持つセレブリティとクリエイターに検出努力を焦点を当てていました。これらの機能を政治家に拡張することは、合成メディアが政治の領域でより異なる、潜在的により危険な脅威をもたらすという認識です。

検出の仕組み

YouTubeのディープフェイク検出システムは、合成生成または操作の兆候についてビデオを分析するために協力して働く複数のAIモデルを使用しています。システムは、顔の動き、唇の同期、オーディオの特性、および現在のAIビデオツール世代の特徴であるビジュアルアーティファクトを検査します。

システムがビデオがAI生成または操作されている可能性があると識別する場合、コンテキストに応じて複数のアクションを取ることができます。YouTubeの欺瞞的な慣行に関するポリシーを明らかに違反しているビデオは、完全に削除される場合があります。他のビデオはAI生成コンテンツが含まれていることを示すラベルを受け取る可能性があり、視聴者が見ていることについて情報に基づいた判断を下すことができます。

同社は、既知のディープフェイクと本物の政治映像の大規模なデータセット上でモデルをトレーニングしたと述べていますが、そのアプローチの特定の技術的詳細は開示していません。YouTubeはまた、迅速に改善する生成技術に対応するためにモデルを継続的に更新していると述べており、検出と作成の間の軍拡競争は確実に強化するでしょう。

トランプの質問

拡張された検出が具体的に元大統領ドナルド・トランプをカバーしているかどうかについて質問されたとき、YouTubeは直接的な回答を提供することを拒否しました。同社は、そのシステムが特定の個人に名前を付けることなく、すべての政治人物を保護するように設計されていると述べました。この非回答は両方の政治的なキャンプから批判を引き付けています。

トランプはAI生成コンテンツの頻繁なターゲットであり、明らかに風刺的な操作から、実際のフッテージと無分別に混同される可能性のあるより説得力のあるディープフェイクまで続きます。主要な政治人物と、オンラインの言説の頻繁な主体としての彼のステータスは、ディープフェイクの作成者にとって特に高価値のターゲットにします。

プラットフォームが保護する特定の個人に名前を付けることに対する躊躇は、政治的偏見の認識を避けたいという願いを反映しているかもしれません。特定の政治家を保護するかしないかについての明示的な声明は、YouTubeが政治的立場を取ると解釈される可能性があり、企業はますますポリティクス化されたメディア環境で運営しているにもかかわらず、一貫して回避しようとしてきました。

より広いディープフェイク脅威

拡張は、AI生成の政治コンテンツが急速に増殖している時期に来ています。OpenAI、Google、さまざまなオープンソースプロジェクトを含む企業からのビデオ生成モデルの進歩により、最小限の技術的専門知識で説得力のある偽のビデオを作成することが可能になりました。

世界中の選挙サイクルの間に、ディープフェイクは政治家が炎症性の声明をする、彼らが反対する候補者を支持する、またはスキャンダラスな行動に従事することを示すために使用されてきました。いくつかの国では、ウイルスディープフェイクが偽として識別される前に世論に影響を与えており、脅威の非対称の性質を実証しています。ディープフェイクは数分以内に広がる可能性がありますが、デバンキングには数日かかります。

ソーシャルメディアプラットフォームは政治的なディープフェイクの主要な分布チャネルであり、プラットフォームレベルの検出は重要な防御線になります。ただし、検出は本質的に反応的であり、作成およびアップロードされた後にのみ偽のコンテンツを識別します。最も高度なディープフェイクは、特に生成技術が検出機能よりも速く改善されるにつれて、検出を完全に回避する可能性があります。

規制圧力

YouTubeのディープフェイク検出の拡張は、AI生成の誤った情報に対処するためにプラットフォームに増加する規制圧力の背景に対して発生します。欧州連合のAI法には合成メディアのラベリングに関連する規定が含まれており、いくつかのアメリカの州は政治的なディープフェイクを特に対処する法律を可決したか、考慮しています。

連邦レベルでは、AI生成選挙干渉についての超党派の懸念は複数の立法提案を生み出しましたが、まだどれも法律に制定されていません。包括的な連邦規制の欠如は、プラットフォームが厳しさと透明性の様々なレベルで、ディープフェイクへのアプローチを大幅に自己制御していることを意味します。

批評家は、関係のリスクを考えると、プラットフォーム自己規制が不十分であると主張しています。政治的指導者の説得力のあるディープフェイクが理論的に選挙に影響を与えたり、地政学的な危機を引き起こす可能性がある場合、問題を警察に依存する私企業は説明責任のギャップを作成します。YouTubeの検出システムが重大なディープフェイクをキャッチできない場合、プラットフォームを責任を持って保有する権限を持つ規制機関はありません。

次に何が来るか

YouTubeのディープフェイク検出の拡張は、合成メディアを真摯に受け止めるための業界全体の傾向の一部です。YouTubeを所有するGoogleは、他のプラットフォーム向けの検出ツールも開発しており、コンテンツプロベナンスと認証の業界全体の基準に貢献しています。

Adobe、Microsoft、および他者によって支持されているContent Authenticity Initiativeは、デジタルコンテンツに出所メタデータを埋め込むための技術基準を開発しており、ビデオが本物であるかどうかを検証できる管理チェーンを作成しています。これらの基準は、単に偽造品を識別することのみに依存するのではなく、積極的な真正性信号を提供することにより、プラットフォームレベルの検出を補完します。

ただし、根本的な課題は残ります。AI生成技術は、検出および認証機能よりも速く進化しています。YouTubeの拡張された検出は意味のある一歩を表しますが、近い将来にバランスに落ち着く兆候を示していない継続的な軍拡競争の1つの動きです。

この記事はGizmodoの報告に基づいています。元の記事を読む