ドナルド・トランプが2月に自身のSNSでシェアした、バラク・オバマとミシェル・オバマを猿として描いた人種差別的なAI生成動画をめぐる釈明は、極めて都合の良い専門的言い逃れに基づいている。トランプは、動画の冒頭しか見ていなかったと主張しているのだ。投稿が削除された直後、大統領専用機エアフォース・ワンの機内で記者団に対し、トランプは「冒頭の数秒間は問題ないように見えた」とし、Truth Socialで数百万人に拡散されるまで、周囲の誰も動画の結末がどのようになっているか把握していなかったと語った。これは現代における典型的な言い訳である。ユーザーはアルゴリズムを非難し、政権は「名前のないスタッフ」に責任を押し付け、テクノロジーそのものは誰の責任も問われないブラックボックスとして残される。
月曜日、バラク・オバマは『The New Yorker』誌のインタビューで、ついにこの件について沈黙を破った。彼の反応は予想通り抑制の効いたもので、彼の大統領時代を象徴する「高潔な政治」の手本のような内容であったが、同時に現在のデジタルにおける礼節の欠如に対する鋭い批判も含まれていた。オバマは、自分個人に対する侮辱は意に介さないと述べつつも、家族が関与させられたことに対しては断固とした態度を示した。「妻や子供たちがこうしたことに引きずり込まれるのは常に我慢ならない。彼らはこんなことを望んでいなかったからだ」とオバマは語った。しかし、個人的な不満を超えて、彼はより深いシステム的な腐敗を指摘した。それは、政策論争であったはずの政治的言説が、ソーシャルメディアと合成技術による残酷さによって増幅される「道化芝居」へと変貌してしまったことである。
もっともらしい否認の技術的アーキテクチャ
元大統領夫妻を猿に見立てたAI生成動画が、現職大統領のフィードに投稿されるに至る背景には、崩壊しつつあるコンテンツモデレーションのインフラがある。従来のメディア環境であれば、これほど露骨な人種差別的表現を含む動画は、法務および編集部門による幾重もの審査を通過することはできなかっただろう。Truth Socialと生成AIの時代において、そのワークフロー全体は「シェア」ボタンひとつに置き換わっている。動画が「誤って」投稿されたというホワイトハウスの主張は、合成メディアに対する内部的なガードレールが完全に欠如していることを浮き彫りにしている。
これは単なる判断ミスではない。メタデータの失敗である。主要なテクノロジー企業の多く、特に欧州を拠点とする企業やC2PA(コンテンツの来歴と真正性のための連合)基準を順守している企業は、AI生成コンテンツに「栄養成分表示」のようなラベルを埋め込もうとしている。これらのデジタル透かしは、ユーザーが再生ボタンを押す前に、そのファイルの内容や出所をプラットフォームに伝えることを目的としている。しかし、Truth Socialは規制が及ばない真空地帯で運営されており、そこではこうした技術的な説明責任は「言論の自由の侵害」とみなされる。トランプが結末を見ていなかったと言うとき、彼はデジタルツールが文脈のためではなく、スピードのために設計されているという事実を悪用しているのである。
「ライオンは寝ている」に合わせてオバマ夫妻の頭部を猿の体に合成したこの動画は、ディープフェイクの原始的な形態だ。生成にスーパーコンピュータや国家レベルの情報機関は必要ない。コンシューマー向けのGPUと、オープンソースモデルを用いた数分間のトレーニングがあれば十分である。こうしたデジタル暗殺の民主化こそが、EUの「AI法」が厳格な透明性要件を通じて緩和しようとしてきた対象である。ブリュッセルでは、長らくモデルの提供者に焦点を当て、ソフトウェアそのものにヘイトスピーチの生成を防ぐブロック機能を組み込ませることに注力してきた。対してフロリダやワシントンでは、事後処理に終始しており、その戦略はますます無力なものとなりつつある。
合成エコシステムに「高潔さ」は存在するのか
礼節、親切、そして思いやりを重んじるオバマの姿勢は、まるで別の世紀からのメッセージのように感じられる。「以前は礼節が必要だと感じていたはずの人々の間で、これに対する恥の意識が全くないようだ」と、彼は『The New Yorker』に語った。しかし、礼節とは人間特有の特性であり、アルゴリズムはエンゲージメントを最大化するように最適化されている。動画に使われた人種差別的な表現は、AIの学習データの事故ではなく、歴史的な神経を逆なでするための、作成者による意図的な選択だった。AIは、それを実行するための効率性を提供したに過ぎない。
オバマが、AIが戦争を「ビデオゲームのように」扱うために利用されることを懸念した点には、皮肉な側面がある。彼は、イランに対する軍事行動をスタイリッシュに表現するために合成画像を使用した、トランプ政権の過去の一連の投稿について言及している。臨床的で感情を排した手法としてしばしば批判されたドローン戦争の先駆者である元大統領にとって、戦争の光景を文字通りゲーム化することは、論理的ではあるがグロテスクな結論といえる。私たちは、視覚的な記録が物理的な現実から完全に切り離された政治的リアリティに向かっている。大統領がリンカーン記念堂で自身のシャツを脱いだAI生成写真を投稿し(トランプが最近行ったように)、続いて前大統領を中傷する人種差別的なディープフェイクを投稿できるのであれば、「事実」という概念そのものが溶解し始める。
共和党内部の反応は、実に象徴的なほど分裂している。ティム・スコットのように動画を「これまでに見た中で最も人種差別的」と非難する声がある一方で、ホワイトハウスの公式見解としてキャロライン・リービットが発信したコメントは、世間の怒りを「偽りの憤慨」として一蹴した。この内部の緊張は、伝統的な保守的価値観と、デジタル先行型のポピュリスト運動が求める絶対的な要求との間で、党が苦闘していることを物語っている。トランプ政権にとって、このAI動画は償うべき過ちではなく、大衆のショックに対する耐性を試すストレステストに過ぎない。
ブリュッセル効果と主権の限界
米国がこれらの事件をめぐって党派的な争いのサイクルに閉じ込められる一方で、欧州の規制当局は懸念を強めている。最近完全に施行されたEUのAI法は、まさにこの種のコンテンツが産業規模で生産されるのを防ぐために設計された。欧州法では、欺瞞的なコンテンツを生成できるAIシステムは、検出を前提として設計されなければならないと義務づけている。もしこの動画が欧州の企業によって制作・配信されていたならば、罰金は世界売上高の数パーセントに達していたはずだ。
しかし、今回のオバマとトランプをめぐる一件は、グローバル化されたデータ経済における地域規制の限界を露呈している。Truth Socialは欧州のオーディエンスを対象としておらず、そのサーバーもフランクフルトやパリにはない。これは、生成AIの最も有害な応用例がインキュベートされ、グローバルなインターネットを通じて輸出される「規制の聖域」を作り出している。ドイツのサプライチェーン法やデジタル安全法(NetzDG)は、ウェブを浄化するためのモデルとしてしばしば挙げられるが、世界中にシェアしたファイルの中身を見ていなかったと主張する現職の米大統領に対しては無力である。
現在私たちが目撃しているのは、政治的な戦術としての「AI主権」の出現である。政府が、英雄的な自身の肖像写真から反対派を非人間化する風刺画まで、自らの現実を生成できるようになれば、もはや従来のメディアや既存の証拠に基づく議論をする必要はなくなる。「名前のないスタッフ」とは人間ではない。彼らはシステムの中に潜む幽霊であり、自身の責任を問われることなくバイラルな誹謗中傷の恩恵を受けることを可能にする、都合の良い虚構である。
デジタルサーカスの常態化
オバマが指摘したように、アメリカ国民の多くは今もなお礼節を信じているかもしれないが、モデルをトレーニングしているのはアメリカ国民の過半数ではない。この種のデジタルハラスメントに対する技術的な参入障壁は消失した。人種差別的な表現を生成するコストは実質的にゼロとなり、それに対して反論し、訴訟を起こし、「高潔な態度をとる」コストは高くつく時代に私たちはいる。
ホワイトハウスが謝罪を拒否していることは、おそらくこの物語全体の中で最も正直な部分であろう。謝罪するということは、大統領が自身のデジタル上の存在が発信するコンテンツに対して責任があることを認めることになるからだ。現在の政権の観点からすれば、大統領は、第三者のアプリによって生成された合成された嘘であっても、より広範で介在のない「真実」を伝えるパイプ役でしかない。スタッフはミスをしたのではない。彼らはニュースサイクルを1週間支配し、対立候補に自らの尊厳を守るための防御を強いている間に、政権が次の混乱へと移行するための見出しを生成するという任務を完璧に遂行したのである。
欧州には規制がある。ワシントンには劇場がある。誰かのもとに真実が残されているのかどうかは、まだ分からない。
Comments
No comments yet. Be the first!