AIのアドバイスを信じた結果「隣人に毒殺されそうになっている」と妄想にとりつかれ入院する羽目になった男性

サイエンス

AIテクノロジーの発達によってAIチャットボットを日常的に使う人も増えており、中には医療関連の情報についてAIに尋ねる人もいます。ところが、AIチャットボットのアドバイスをうのみにした結果、「隣人が自分を毒殺しようとしている」との妄想にとりつかれ、入院する羽目になった男性の症例が報告されました。

A Case of Bromism Influenced by Use of Artificial Intelligence | Annals of Internal Medicine: Clinical Cases

https://www.acpjournals.org/doi/10.7326/aimcc.2024.1260

Man Hospitalized With Psychiatric Symptoms Following AI Advice : ScienceAlert https://www.sciencealert.com/man-hospitalized-with-psychiatric-symptoms-following-ai-advice

アメリカに住む60歳の男性は健康に気を遣っており、以前からさまざまな食事制限を実践していました。ある日、男性は大学時代に栄養学を学んだ経験を基に、「食事から塩(塩化ナトリウム)を排除する」という個人的な実験を行うことにしたそうです。

男性は食事から塩を排除するに当たり、ChatGPTに代替となる物質について尋ねました。すると、ChatGPTは塩化ナトリウムの代わりに「臭化ナトリウム」を使うことを提案したとのことで、男性はインターネットで臭化ナトリウムを入手して食事に取り入れました。

確かに塩化ナトリウムの代わりに臭化ナトリウムを使うことはあるものの、これは浴槽の掃除などを行う場合の話であり、臭化ナトリウムを使えば食事に塩味を加えられるという意味ではありません。しかし、ChatGPTはこうした重要な文脈について説明せず、また男性に何の目的で塩化ナトリウムを置き換えたいのか尋ねることもありませんでした。

ChatGPTのアドバイスをうのみにして日々の食事に臭化ナトリウムを取り入れ続けた男性は、約3カ月後に「隣人が自分を中毒させようとしているのではないか」という懸念を訴えて救急外来を受診しました。 今回の症例を報告した医師らによると、男性は入院後最初の24時間で偏執的な妄想や幻聴、幻視といった症状を示し、病院からの逃走を試みたためやむを得ず精神病棟での治療が行われたとのこと。抗精神病薬や点滴による治療を受けた後、男性は落ち着きを取り戻し、自分の食生活やChatGPTに相談したことなどについて説明したそうです。

男性の証言やさまざまな臨床検査の結果から、医師らは男性が「臭素中毒」に陥っていたと結論付けました。健康な人の場合、血中の臭素濃度は10mg/L未満ですが、この男性は1700mg/Lという異常な数値に達していたと報告されています。

臭素中毒は臭化カリウム臭化リチウムブロムワレリル尿素といった臭素化合物を主体とした薬剤の長期使用で発症する中毒です。症状としては嘔吐(おうと)や便秘、皮膚の炎症や紅斑などに加え、せん妄や幻覚といった精神症状も起こることが知られています。

かつては臭素を含む化合物が不眠症やヒステリーなどの治療薬に含まれていたため、20世紀初頭には精神病院に入院する患者の最大8%が臭素中毒だったと推定されています。その後は臭素化合物を含む薬剤が段階的に廃止されたため、1970年~80年代には臭素中毒の症例数が激減しました。

今回の患者は3週間にわたる治療を受けた後、大きな問題もなく退院することができました。科学系メディアのScience Alertは、「このケーススタディにおける主な懸念点は、古い病気が再発したことよりも、新興のAIテクノロジーが真に重要な分野において、人間の専門知識を置き換えるまでに至っていないという点にあります」と指摘。 医師らは、「ChatGPTをはじめとするAIシステムは科学的に誤っている内容を生成する可能性があり、結果を批判的に議論する能力に欠け、最終的に誤情報の拡散を助長する可能性がある点に注意が必要です」「医療専門家が塩化ナトリウムの代わりを探している患者に対し、臭化ナトリウムを提案する可能性は極めて低いでしょう」と述べました。

24時間いつでもアクセスできる上にユーザーへ寄り添った回答をしてくれるAIチャットボットは、実際の人間に代わる便利な相談相手となりつつあります。しかし、AIのせいでスピリチュアルな体験や宗教的妄想に取りつかれる人々もいるほか、AIは一部のユーザーを陰謀論的な思考に誘い込んでいるとの指摘もあります。

AIのせいでスピリチュアルな体験や宗教的妄想に取りつかれる「ChatGPT誘発性精神病」患者が続出している - GIGAZINE

先ほど入力したメールアドレス宛に件名「GIGAZINE無料メンバー登録のメールアドレスの確認」というメールが送信されているので、「メールアドレスを確認するには、次のリンクをクリックしてください。」の部分にあるリンクをクリックして、認証を完了してください。メールが届いていなければ、この直下にある「確認メールを再送信する」をクリックしてください。

・関連記事 AIのせいでスピリチュアルな体験や宗教的妄想に取りつかれる「ChatGPT誘発性精神病」患者が続出している - GIGAZINE

信者と対話して罪を赦す「AIキリスト」が誕生、罪を告白した3分の2が「スピリチュアルな体験だった」と語る - GIGAZINE

AIの回答は「人間のメンタルヘルスの専門家よりも思いやりがある」と見なされることが判明 - GIGAZINE

ChatGPTが利用者を陰謀論的な考えに導いているとの報告、その後ChatGPTは操作を認めてOpenAIとメディアへの通報を指示 - GIGAZINE

AIチャットボットに医療系の相談をする人が増加中だがリスクがあると専門家が警告 - GIGAZINE

「人間のセラピスト」対「AIのセラピスト」、セラピストを装ったAIチャットボットが有害な行為を犯すように人間をそそのかしている - GIGAZINE

孤独な人はAIチャットボットを使うとさらに孤独感が増すことが研究で判明 - GIGAZINE

AIは94.9%の精度で病状を診断できるが人間がAIを使うことで34.5%まで精度が急低下する - GIGAZINE

AIを使う医者は診断ミスが16%減るというOpenAIの研究結果 - GIGAZINE

関連記事: