イランでの戦争に関連したAI生成動画や画像がSNSで氾濫 爆発にミサイル、兵士も偽物
イラン戦争にまつわるAI生成の偽情報、SNSで氾濫
(CNN) 2022年にロシアがウクライナに侵攻した後、ソーシャルメディアは戦争の新たな映像として提示された粗悪な偽情報で溢(あふ)れかえった。それらはフォトショップで加工された偽物、もしくは事実と異なる説明が付された映像で、実際にはビデオゲームや映画、過去の事件、無関係なニュース報道から切り取ったものだった。
こうした旧態依然の偽情報は、現在イランとの戦争下で再び拡散している。今回は22年には容易に入手できなかった新たな欺瞞(ぎまん)の手口が加わった。使いやすいAI(人工知能)ツールで特注作成された高品質動画や静止画像がそれだ。
米カリフォルニア大学バークリー校でデジタルフォレンジック(デジタル機器に残るデータを収集・分析し、法的な証拠として活用する技術や手法)を専攻するハニー・ファリード教授は「10年前は偽物が1、2点出回ってもすぐに暴かれた。(中略)今は数百もの偽物が流通し、非常にリアルだ」と指摘。さらに「リアルなだけでなく、確実に浸透している。人々はそれを信じ、拡散している」と続けた。
戦争関連の偽情報を暴く著名な検証者で、英BBCのニュース検証専門チーム「ベリファイ」に所属する上級ジャーナリストのシャヤン・サルダリザデ氏は「この1年ほどで変化したのは、生成AIがはるかに広く利用可能になったことだ」と指摘。「今では極めて信憑(しんぴょう)性の高い動画や画像を作成できる。重大な戦争事件を捉えたかのようなそれらの生成物を、訓練を受けていない人が見分けるのは至難の業だ」と述べた。
サルダリザデ氏のような専門家がAI生成と特定した複数の偽動画や画像は、イラン戦争開始から約2週間が経過する中、ソーシャルメディアのプラットフォーム上で既に数千万回再生されている。
ある偽動画は、架空のイラン製ミサイルがイスラエルのテルアビブを攻撃する様子を映している。別の偽動画では、テルアビブの空港をイランが攻撃したとされる現場からパニックに陥った人々が逃げる様子が描かれている。3本目の偽動画は、捕虜となった米特殊部隊員がイラン軍に銃を突きつけられている様子を映したものだとされる。
別の偽動画は、イランの軍事施設が爆破される防犯カメラ映像のクリップを複数収めたと主張しているが、三つのクリップについてはAI生成と思われる。一つは本物の映像だが、昨年のものだという。さらに別の偽動画は、イラン国内に展開する米軍部隊の架空の車列を描写。もう一つの偽動画は、撃墜された米軍機がテヘラン中を引き回されている映像のように見える。
一方、AI生成と思われる偽の静止画像には、イランの攻撃後に炎上するイラクの米軍基地やサウジアラビアの米国大使館、瓦礫(がれき)の下で死亡したイランの最高指導者ハメネイ師、犠牲となった民間人を悼むイラン人らとされる内容が含まれる。イラン政府系メディアも、バーレーンの米軍基地の損傷を示す偽の衛星画像を投稿している。
これらは流通しているイラン関連の偽情報のほんの一部に過ぎない。
偽情報の巧妙化と監視の縮小
サルダリザデ氏のような人々が虚偽を暴こうと日々努力しているにもかかわらず、新たな偽情報は彼らが取り締まるよりもはるかに速いペースで出現している。それらは往々にして非常に精巧で、フィードをスクロールする一般ユーザーが即座に偽物だと見抜くことは難しい。
広く拡散した複数の偽情報は、親イラン派のSNSアカウントによるプロパガンダとして流布された。しかし偽情報の多くについて、作成の動機を特定するのは至難の業だ。SNSでの閲覧数やそれがもたらす影響力、金銭が目的の可能性もあれば、単に作成が容易だったからという見方もできる。
偽情報の巧妙化に拍車がかかる中、真実を見極めるのは困難な状況となっている。党派間の分断、メディアの断片化、ソーシャルメディアアルゴリズムの台頭により、多くの米国人は認識を同じくする人々が共有した情報しか目にしない傾向を強めている。前出のファリード氏は、ソーシャルメディア企業がプラットフォーム上のコンテンツに対する積極的な監視から距離を置いている点にも注意を向けた。
ソーシャルメディアプラットフォームのX(旧ツイッター)は先週、戦時中のAI偽情報対策として一定の措置を講じると発表した。プロダクト責任者のニキータ・ビア氏は、Xから報酬を受け取る「クリエーター」として登録されたユーザーが、AI生成の武力紛争動画をAI製であることを明示せずに拡散した場合、90日間の支払いプログラム停止処分が適用されると投稿した。違反を繰り返した場合は、永久停止処分にするという。
この方針が厳格に施行されるかどうか、ファリード氏は懐疑的な見方を示すが、仮に施行されるとしてもXユーザーの大多数はクリエーター報酬プログラムの対象には含まれていない(他のユーザーの投稿は依然としてクラウドソーシングによる「コミュニティノート」で事実確認の対象となるが、その実績は不安定だ)。ソーシャルメディア企業のTikTokとメタは、戦争関連の偽情報の拡散に関するCNNのコメント要請に応じなかった。後者はフェイスブックとインスタグラムを所有している。
さらにサルダリザデ氏は数カ月前から、Xが提供するAIチャットボット「グロック」が逆に問題を悪化させているケースがあると指摘している。事実確認を求めるユーザーに対し、AI生成の画像や動画(イランでの戦争を描写したものを含む)が本物だと誤って伝える事例が発生しているという。
騙されない方法
ファリード氏によれば、正確な情報を得る最善の方法はソーシャルメディア上の「無作為なアカウント」の投稿をスクロールする代わりに、信頼できる報道機関からニュースを入手することだ。世界的な紛争が起きている状況下で、不確かな経路から情報を得るべきではないと、同氏は強調する。
頻繁にスクロールする習慣を避けられない我々にとっては、センセーショナルな戦時下の動画や画像を本物と信じ込み、共有する前に、一瞬立ち止まり、たとえ数秒でもオンライン検索を行うのが賢明だ。
何かおかしい点はないか。例えば音声と映像の同期が取れていない、現実世界と一致しない視覚的特徴などから偽情報を見抜けることもある。AIは日々進化しているが、依然として不完全なものだからだ(一部のAI生成物には、作成ソフトを特定する透かしが残っている場合がある)。
前出のサルダリザデ氏のような著名な検証者やファクトチェックメディアが当該の動画・画像の信憑性を検証していないか確かめるのも有効だ(動画・画像が偽物の場合、ユーザーのフィードに届く前に専門家が指摘していることが多い)。
また当該の投稿への返信やXのコミュニティノートで、懐疑的な意見を出している人がいるかもしれない。一般のユーザーは欺くこともあるが、鋭い質問を発している場合もある。
無料のAI検出ツールを使ってみるのも手だろう。それらは完璧とは程遠いが、時折役立つこともある。
サルダリザデ氏は、AI生成コンテンツを可能な限り識別できるよう「目を鍛えるべきだ」と述べた。しかし同時に「AI生成コンテンツの検出は極めて困難になりつつあり、近い将来さらに難しくなる方向へ向かっているように思える」とも指摘している。