「脱がせる」機能でGrok炎上、他サイトの85倍のスピードで生成されている
イーロン・マスクがクリスマスイブに発表した、X専用のAIチャットボット「Grok」で使えるAIの画像・動画の生成機能。ところがこの機能、ガードレールに問題ありでした。
Xにアップされた写真を対象にGrokへ「脱がせて」と頼むだけで、ヌード写真や映像を自動生成してしまうのです。これで勝手にヌードにされた素材が拡散される被害が大発生し、Xが荒れまくってます。
被害に遭っているのは主に女性や子ども。恨みを晴らす嫌がらせ目的の”リベンジポルノ”もあれば、目障りな政治家や有名人を黙らせる圧力目的のもの、対象の大切な家族や未成年の子どもまで脱がされる被害も確認されていて目を覆うばかりです。
一体どれだけの規模で広まっているのか
服を着た写真をヌードに加工するアプリはほかにもあるし、非公開のチャットルームなどでそういうの密かにシェアするマニアも一定数いることはいたんですが、Grokは情報拡散メディアのXと一体型なので被害の規模が違います。
どれだけ違うのかというと、Bloombergが報じたGenevieve Oh研究員の調査データによると、Xの@Grok公式アカウントに1月5日から6日にかけての24時間に公開されたヌード・わいせつ表現を含むAI自動生成画像はなんと毎時約6700件!
AI自動生成のヌード・わいせつ画像投稿数TOP5の残りのサイトは平均毎時79件というレベルですので、Xだけが桁違いに突出しているんですね。
「かつてない規模でヌード化被害が広まっている」とネット性犯罪の専門家が警鐘を鳴らし、各国も規制に動いているというわけです。
これに対し、イーロン・マスクと開発元のxAIはどうかというと、”表現の自由”を旗印に掲げ、「被害者から削除要請があればアップロードしたユーザに削除命令してアカウント停止、追放などの処分をする」というスタンスのままです。そんな後手後手の対処で、これから起こりうる集団訴訟の嵐をはたして乗り越えられるんだろか…。
…と思ってたら、ようやく「有料ユーザのみに利用を制限」しました。まあ、お金払えば利用し放題って、単なる金儲けの道具になっただけで何も変わってないじゃん、って気もしますが。
Grokをブロックしても何の解決にもならない
被害に遭ったインフルエンサーを中心に怒りの声もあがってはいるのですが、「怒るとかえって火に油を注ぐ(=もっとやられる)」結果を招いてしまうので、報復を恐れて口をつぐむ人も多い様子…。
特に被害がひどいのが、セクシー系の自撮りで人気のインフルエンサーで、いかようにでも加工できる事前同意不要な対象と勝手にみなされて、いいように使われ放題してるんだそう。
たまりかねて、写真を勝手に加工していいなんて同意してない、とGrokに抗議しても変化なし。@Grokをブロックしても変化なし。何をやっても止まらないんだって。いやあ…。
こんなんじゃ怖くて自撮りアップする人いなくなっちゃいますよね…。