Grokに児童性的虐待コンテンツを作られたとしてティーンエイジャーがxAIを提訴
イーロン・マスク氏のAI企業・xAIが提供するAIアシスタントのGrokが、児童性的虐待コンテンツ(CSAM)を生成したとして、3人のティーンエイジャーが訴訟を提起しました。
Tennessee tens sue Musk's xAI for allowing Grok to undress them - UPI.com
https://www.upi.com/Top_News/US/2026/03/16/teens-sue-musk-xai-grok/9401773691425/Teens sue Musk's xAI, saying Grok made sexual images of them as minors - The Washington Post
https://www.washingtonpost.com/technology/2026/03/16/teens-sue-musk-xai-grok/Elon Musk's xAI faces child porn lawsuit from minors Grok allegedly undressed | TechCrunch
https://techcrunch.com/2026/03/16/elon-musks-xai-faces-child-porn-lawsuit-from-minors-grok-allegedly-undressed/xAI is being sued by teens who say Grok created CSAM using their photos
https://www.engadget.com/social-media/xai-is-being-sued-by-teens-who-say-grok-created-csam-using-their-photos-200102733.html2025年末から、Grokの画像編集機能がX(旧Twitter)でも簡単に利用できるようになったことで、インターネット上に「Grokで作成した性的な画像」が拡散されるようになりました。この問題を受け、インドネシアやマレーシアはGrokへのアクセスを一時的にブロック。xAIのイーロン・マスク氏は政府による検閲を非難していましたが、最終的に画像編集機能を用いた水着化・下着化・ヌード化を禁止しました。
Xでも使える生成AI「Grok」の画像編集機能で子どもや女性の性的画像が生成可能な問題を受けインド・フランス・マレーシアの当局が調査を開始 - GIGAZINE
2026年3月16日、xAIが特定可能な未成年者のCSAMをGrokで生成できるようにした責任を問われるべきとして、3人の匿名原告がカリフォルニア州連邦裁判所で訴訟を提起しました。3人の原告はGrokにCSAMを生成されたすべての人を代表して、集団訴訟を起こしたいと主張しています。 原告側はxAIが他のAI企業が実施しているような「実在の人物や未成年者のポルノ画像を生成できないようにする基本的な予防措置」を講じていなかったと主張。 AIモデルが実写画像からヌードやエロティックなコンテンツを生成することを可能にする場合、子どもが登場する性的コンテンツの生成を防ぐことは「事実上不可能」とテクノロジーメディアのTechCrunchは指摘しています。さらに、マスク氏がGrokの性的イメージ生成能力や、露出度の高い服装をした実在の人物の描写能力を公に宣伝していたことを挙げ、「この点が訴訟の大きな争点となる」とTechCrunchは指摘しました。
原告のひとりは、広告の同窓会や卒業アルバムの写真をGrokで裸に加工されたと主張しています。この原告はInstagram経由で自身や他の未成年者の裸の写真がDiscord上で拡散されていることを知ったそうです。 2人目の原告は、Grokを利用したサードパーティー製モバイルアプリで、自身の性的描写を含む画像が生成されたことを、警察から知らされたと主張しています。原告側の弁護士は、サードパーティーによるGrokの利用にはxAIのコードとサーバーが必要となるため、問題の責任はxAIにあると主張しました。
3人目の原告は、逮捕した容疑者の携帯電話から自身のポルノ画像が見つかったと捜査官から連絡を受け、自身のCSAMが生成されていたことを知ったそうです。 原告側はCSAMが拡散されたことで、極度の苦痛を感じていると主張。さらに、性的に搾取された児童を保護し、企業の過失を防止することを目的とした法律に基づき、xAIに民事制裁を求めています。
・関連記事 Xでも使える生成AI「Grok」の画像編集機能で子どもや女性の性的画像が生成可能な問題を受けインド・フランス・マレーシアの当局が調査を開始 - GIGAZINE
インドネシアがGrokへのアクセスをブロックした最初の国に、合意のない性的画像の拡散が理由 - GIGAZINE
Grokがマレーシアでも利用不可能に、X(旧Twitter)での合意のない性的コンテンツ生成が原因 - GIGAZINE