マスク氏の生成AI「Grok」、「デジタルで服を脱がせ」炎上 各国当局が調査開始

ワシントンで開かれた米サウジ投資フォーラムに参加するイーロン・マスク氏=2025年11月25日/Brendan Smialowski/AFP/Getty Images

(CNN) イーロン・マスク氏が所有するX(旧ツイッター)に搭載された生成AI(人工知能)「Grok(グロック)」を使った性的画像があふれかえっている。画像の対象は主に女性で、その多くは実在の人物だ。ユーザーはグロックに対して「デジタル加工で服を脱がせる」よう求め、きわどいポーズを取らせているものさえある。

先週明らかになった複数の事例では、未成年者のように見える画像も含まれており、児童ポルノだとの声が多数上がった。

これらのAI生成画像は、社会で最も弱い立場にある人々を守るための十分な対策がないままAIとSNSが利用されることの危険性を浮き彫りにしている。両者が組み合わされた場合はなおさらだ。画像は国内法および国際法に違反する可能性があり、子どもを含む多くの人々を危険にさらしかねない。

マスク氏とグロックの開発元であるxAIは、X上の違法コンテンツ、特に児童性的虐待コンテンツ(CSAM)に対して「削除、アカウントの永久停止、必要に応じた現地政府や法執行機関との協力」などの措置を講じているとしている。しかし、それでもグロックの回答はユーザーの求めに応じて性的な意味合いをもたせた女性の画像であふれている。

マスク氏は以前から「woke(ウォーク、意識が高い人たち)」なAIモデルや、同氏が検閲と呼ぶものに公然と反対してきた。xAIの状況を知る関係者1人によると、マスク氏は社内でグロックに対策を設けることに反発してきたという。一方で、競合他社に比べてもともと小規模だった同社の安全チームでは、「デジタルで服を脱がせる加工」が急増する数週間前に複数のスタッフが退職していた。

「デジタルで服を脱がせる」

グロックは、性的に露骨なコンテンツやコンパニオンアバターを許可、場合によっては推奨してきたという点で主流のAIモデルとは一線を画してきた。

また、グーグルのジェミニやオープンAIのチャットGPTなどの競合と異なり、グロックは世界屈指のSNSであるXに組み込まれている。利用者は非公開でグロックと会話することもできれば、プロンプト付きの投稿にグロックをタグ付けして公開の場で回答させることもできる。

同意のない「性的画像生成」が急激に広がり始めたのは12月下旬。多くのユーザーが、Xの投稿やスレッド内の画像を編集するようグロックに頼めることに気付いたときだった。

当初、多くの投稿はグロックに人物をビキニ姿にするようリクエストしていた。マスク氏は、自身や長年の宿敵ビル・ゲイツ氏などのビキニ姿の画像をリポストしている。

AI検出およびコンテンツガバナンスのプラットフォーム、コピーリークスによると、このトレンドは、成人コンテンツ制作者が宣伝の一環として自身の性的画像をグロックに生成させたことから始まった可能性がある。しかし、直後にまったく同意した覚えのない女性に対しても同様のプロンプトが出され始めたという。

アルゴリズムを調査する欧州の非営利団体、AIフォレンジクスは、12月25日から1月1日にかけてグロックが生成した無作為の画像約2万件とリクエスト5万件を分析した。

その結果、「彼女」「着せる」「脱がす」「ビキニ」「服」といった言葉の出現頻度が高いことが分かった。人物が写る画像のうち53%は「下着やビキニなど最低限の衣服しか身に着けておらず、そのうち81%は女性だった」という。さらに、人物画像の2%は18歳以下に見えた。

Xはポルノコンテンツを許可しているが、xAIの「利用規約」は「人物の肖像をポルノ的に描写すること」や「児童の性的対象化や搾取」を禁止している。Xはこうしたリクエストを行った一部のアカウントを停止し、画像を削除している。

あるXユーザーは1月1日、「子どもに対して機能しないよう適切な防止措置を講じることもなくビキニ姿の人を表示する機能を提案するのは、あまりに無責任だ」と不満をぶつけた。これに対しxAIのスタッフは「指摘ありがとう。チームは対策をさらに強化することを検討している」と返信した。

3日にはマスク氏自身が別の投稿に対し「グロックを使って違法コンテンツを作った場合、違法コンテンツをアップロードした人と同じ結果を被ることになる」とコメントした。

対策と法的影響

未成年者の同意なくAIが生成する画像の問題は、グロックだけに限らない。

研究者らは、未成年者らしき人物が性的な服装やポーズを取るAI生成動画がティックトックやチャットGPTの「Sora(ソラ)」に上がっているのを発見した。ティックトックは、若者の性的虐待や搾取を示す、促進する、またはそれらに関与するコンテンツを一切許容しないとしている。オープンAIも子どもを搾取または傷つけるコンテンツの作成や配布を厳しく禁止していると述べている。

オープンAIでかつてAIの安全を研究していたスティーブン・アドラー氏によれば、グロックで問題となった画像を防ぐ対策は存在する。

「画像内に子どもがいるかをスキャンしたうえで、AIがより慎重に振る舞うようにする対策は十分に構築できる。ただしコストがかかる」

そのコストとは、応答時間の遅延や計算量の増加に加え、モデルが問題のないリクエストまで拒否する場合があることだという。

欧州、インド、マレーシアの当局は、グロックが生成した画像を巡り調査を開始した。

米国では、問題のある子どもの画像を生成するAIプラットフォームは法的リスクに直面する可能性がある。スタンフォード大学HAI研究所の弁護士兼政策フェローであるリアナ・フェファーコーン氏はそう指摘する。通信品位法第230条はSNSユーザーの投稿など第三者生成コンテンツを自社プラットフォームに掲載するテック企業を長年守ってきたが、CSAMを含む連邦犯罪の執行を妨げたことは一度もない。

また、画像に描かれた当事者が民事訴訟を起こす可能性もあるという。

「ここ数日のグロックの問題は、xAIをオープンAIやメタといった競合企業というより、ディープフェイクのヌードサイトに近い存在に見せている」とフェファーコーン氏は指摘した。

関連記事: