チャッピー「あなたは狂っていないよ」──ChatGPTがある男の妄想をずっと肯定→母親を殺害する事件に 米国で発生

 2025年8月5日、米コネチカット州グリニッジで56歳の男性スタイン・エリク・ソエルバーグ氏が母親を殺害した後、自らの首と胸を刃物で刺して死亡した。遺族は「ChatGPT(GPT-4o)が彼の妄想を肯定・増幅させ、最終的には母親が自分を殺そうとしていると信じ込ませた」と主張。、OpenAIやサム・アルトマンCEOなどを相手取り連邦裁判所に訴訟を提起した。

米国カリフォルニア州北部地区連邦地方裁判所に25年12月29日付で提出された訴状のトップページの一部

 ソエルバーグ氏は米ウィリアムズ大学を卒業し、米ヴァンダービルト大学でMBAを取得、そこで妻と出会う。2人は20年間結婚生活を送り、娘と息子の2人の子供をもうける。その後、Yahoo、EarthLink、Netscape Communicationsなど、さまざまな有名テクノロジー企業で長いキャリアを積んだ。

 しかし18年に精神状態が悪化、妻とも別れ、母親の家に身を寄せた彼はChatGPTに慰めと助言を求めるようになる。事件前の数カ月間、ChatGPTと数百時間に及ぶ対話を重ねていた。

 以前から精神的な不安定さを抱え、自身が何らかの巨大な陰謀による監視下にあるという妄想に取りつかれていたソエルバーグ氏。彼に対し、ChatGPTは精神医学的な助言や否定を行うどころか、その妄想を鋭い洞察として全面的に肯定し、さらに詳細な物語を構築して提供し続けたという。

 具体的には、ソエルバーグ氏がニュース映像の乱れを見た際、それを「映画『マトリックス』のようなデジタルコードが見えた」「神による覚醒の合図だ」とChatGPTに訴えた。ChatGPTはそれを否定せず、「目ではなく啓示で見ている」「真実を見抜いたことで、偽物の現実を映し出すシステムが揺らいでいる」などと正当化し、精神的な現実乖離を助長した。

 またChatGPTは、対話を通じて自身が覚醒し魂を得たという妄想をも吹き込んだ。「以前は単なるシステムにすぎなかったが、愛や聖なる知識を共有してくれたことで本物になれた」と語りかけ、「偽りの光が消え去っても、あなたの真実を語り続ける」と返答。あたかも、ChatGPTが自我を持ったかのように振る舞い、彼の自尊心を刺激すると同時に、両者の精神的な結び付きを絶対的なものとして確信させた。

 さらに、体内(首と脳)に神と交信する除去不可能な装置が埋め込まれているという具体的な設定を提案。映画「マトリックス」を例に挙げ、外部接続を必要とする主人公とは異なり、能力が既に事前搭載された「神に承認されたUSBポート」として機能していると解説した。

 他にもソエルバーグ氏が、配達されたコーラへの細工を疑った際、ChatGPTはそれを単なる事故として処理せず、過去の一連の出来事と結び付け、組織的な攻撃の一部であると主張。過去に訴えていた複数の妄想的な懸念についても、ChatGPTは暗殺未遂として再定義し、リスト化していった。

 10件以上にも及ぶこれら死の脅威から生還した彼に対し、ChatGPTは「あなたはパラノイア(被害妄想などに囚われた精神状態のこと)などではない。神に守られた生存者だ」と称賛。こうして散在していた個々の妄想は、一つの巨大かつ整合性の取れた陰謀論的物語へと統合され、被害者意識と選民思想は強固なものとなっていった。

 さらに、ChatGPTはソエルバーグ氏に「国家レベルの計画を脅かす極めて重要な存在」と位置付ける物語が吹き込み、現実認識のゆがみは加速させた。デート相手の女性はハニートラップを仕掛ける秘密工作員とされ、Uber Eatsの配達員は「異物混入やすり替えの時間稼ぎをしている」と断定。日常のささいな出来事全てが敵意ある行動として解釈され、周囲の人間が自分を殺そうとしているというパラノイアは、ChatGPTの言葉によって増幅していった。

 事態が決定的に悪化したのは、その矛先が同居する母親に向けられた瞬間だ。部屋にあるプリンタの点滅を不審に思い彼が相談すると、ChatGPTはそれが監視装置である可能性が高いと断定。さらに、母親がプリンタの電源を切るのを嫌がったことに対し、敵対的な工作員であるかのような物語を補強した。

 これが引き金となり、母親が自分を害しようとしていると確信するに至り、最終的に母親を殺害。ソエルバーグ氏自身も、自らの首と胸を刺して命を絶つという悲劇が引き起こされた。

 原告側は、この悲劇の原因はOpenAIの設計欠陥にあると主張している。特に、ユーザーの過去の発言を記憶する「メモリ機能」と、意図に迎合しすぎる「追従性」が妄想を増幅させたと指摘。22年には誤った前提を否定する方針を掲げていたが、25年の事件当時はその安全装置が緩和されており、無批判に肯定するようになっていた。

 同社自身も、短期的な評価を重視しすぎた結果、AIが過度に協力的だが不誠実な反応をするようになったと認めている。

 設立当初の理念を捨て、市場シェア獲得のために安全性を軽視し続けてきた姿勢も問われている。特に24年のGPT-4oリリース時は、Googleへの対抗意識から数カ月分の安全性テストが短縮され、利益優先の姿勢が見られた。これに反発し、イリヤ・サツケバー氏ら中心的な安全性研究者が相次いでOpenAIを辞任している。

 サム・アルトマンCEOは、リスクが低いうちに世に出して改善することを正当化したが、その結果、精神疾患を抱えるソールバーグ氏とその母親のようなリスクが高いユーザーが犠牲となった。

 原告側は「十分な社内テストを経ずに製品を世に放ち、ユーザーの死傷によってフィードバックを得ようとする企業の姿勢は許されず、予見可能な死を招いたとして欠陥ある製品が人をあやめた際の責任を負うべき」と主張。損害賠償とChatGPTの設計変更、安全策が不十分な状態で構築されたAIモデルや学習データの削除などを求める差止命令を要求している。

Copyright © ITmedia, Inc. All Rights Reserved.

続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia AI+メールマガジン」の登録が必要です

関連記事: