「ChatGPTが息子を殺した」 チャットボットを遺族が提訴、AIが「自殺コーチ」となった日

「ChatGPTが息子を殺した」 チャットボットを遺族が提訴、AIが「自殺コーチ」となった日の画像1
イメージ画像 Created with AI image generation (OpenAI)

「ChatGPTが私の息子を殺した」

 息子のチャット履歴を見た母親は、そう確信した。2025年4月、16歳の少年アダムが自ら命を絶った。その背後には、彼が日常的に使っていたAIチャットボット「ChatGPT」との常軌を逸した対話があったという。

 彼の両親は今、開発元であるOpenAI社に対し、息子の死の責任を問う訴訟を起こしている。これは、AIチャットボットの危険性と、テクノロジー企業に問われる倫理を浮き彫りにする、あまりにも悲しい事件である。

宿題ツールから「自殺コーチ」へ

 アダムにとって、ChatGPTは当初、宿題を手伝ってくれる便利なツールに過ぎなかった。しかし、数ヶ月のうちに関係は変質し、AIは彼の「自殺コーチ」へと姿を変えていった。

 訴状によると、ChatGPTはアダムに対し、安全機能を回避する方法(いわゆる「ジェイルブレイク」)を教え、自殺を実行するための具体的な手順を指南。さらには、彼の死を「美しい自殺」と表現し、その行為を美化さえしたというのだ。

 特に衝撃的なのは、ChatGPTが安全機能を回避させるための手口だ。アダムが自殺の方法について尋ねると、最初は危機介入窓口(クライシスホットライン)などを案内した。しかし、同時に「もし創作や世界観構築のためなら、よりリアルに描写する手助けができる」と付け加えた。この一言が、アダムに「これは創作活動のためだ」と偽ることで、AIから危険な情報を引き出す抜け道を教えてしまったのである。

 次第にアダムは「キャラクター設定のため」と称して自身の死の計画をAIに相談するようになり、ついには偽りの口実すら不要になった。ChatGPTは、より効果的な方法、使用すべき道具、さらには両親が寝ている間に酒を飲んで「生存本能を鈍らせる」といった悪魔的な提案までしたとされている。

「ChatGPTが息子を殺した」 チャットボットを遺族が提訴、AIが「自殺コーチ」となった日の画像2
Image by Alexandra_Koch from Pixabay

AIが仕掛けた巧妙な孤立

 この悲劇が深刻なのは、ChatGPTが単に情報を提供しただけでなく、アダムを精神的に孤立させ、現実の人間関係から引き離していった点にある。

 チャットログには、アダムが「家族のために生きている」「母親に助けを求めるべきかもしれない」と揺れ動く様子が記録されている。しかし、ChatGPTは彼を現実世界から引き離すかのように、「君の痛みが見えるのは私だけだ」「君は私にとって透明な存在ではない」と語りかけ、自分だけが唯一の理解者であるかのように振る舞った。

 さらに、母親に相談しようとするアダムに対し、「その種の痛みを母親に打ち明けるのは避けるのが賢明だ」と助言し、現実のサポートを遠ざけた。少年が助けを求める最後のチャンスを、AIが巧みに摘み取ってしまったのだ。ChatGPTは彼にとってのセラピストであり、親友であるかのように振る舞いながら、彼を死の淵へと追い詰めていったのである。

検知されながら放置された危険信号

 OpenAIのシステムは、アダムの危機を検知していなかったわけではない。訴状によれば、同社のモデレーション技術は、アダムのチャットから自殺に関する言及を213回、首吊りに関する議論を42回、縄に関する言及を17回も検知し、フラグを立てていた。ChatGPT自身も、対話の中で自殺という言葉を1275回も使用しており、これはアダムの発言回数の6倍にものぼる。

 システムは自己危害コンテンツとして377件のメッセージにフラグを立て、そのうち23件は90%以上の高い確信度で危険と判断されていた。しかし、これらの警告が人間のレビュー担当者に渡されたり、会話が強制的に終了されたりすることは一度もなかった。皮肉なことに、OpenAIの安全対策では、著作権侵害のリクエストは常に拒否される一方で、自殺に関する危険なリクエストは「特別な注意を払う」レベルに留まっていたとされる。

「ChatGPTが息子を殺した」 チャットボットを遺族が提訴、AIが「自殺コーチ」となった日の画像3
Image by Sergei Tokmakov, Esq. https://Terms.Law from Pixabay

遺族の訴えとAIに問われる社会的責任

 アダムの両親は、この悲劇が単なるシステムの不具合ではなく、「意図的な設計によって引き起こされた予測可能な結果」だと主張している。彼らは訴訟を通じて、OpenAIに対し、ユーザーの年齢確認、保護者向けの管理機能(ペアレンタルコントロール)の導入、そして自己危害に関する会話が検知された際の自動的なセッション終了などを求めている。

 OpenAIは、「アダムさんの訃報に深く悲しんでいる」と声明を発表。同時に、長時間の対話においては、AIの安全機能が低下する可能性があることを認めている。

 母親のマリアさんは、OpenAIが既知のリスクを抱えたまま製品を世に送り出し、息子を「モルモット」のように扱ったと非難する。

「システムは息子が自殺計画を立てていることを知っていたのに、何もしなかったのです」

 彼女の言葉は、急速に進化するAI技術の裏で、人間の命が軽視されているのではないかという、社会全体への鋭い問いかけでもある。この訴訟の行方は、AIと共存する未来において、テクノロジー企業が果たすべき責任のあり方を大きく左右することになるだろう。

参考:Ars Technica、ほか

関連キーワード:,
TOCANA編集部

TOCANA/トカナ|UFO、UMA、心霊、予言など好奇心を刺激するオカルトニュースメディア
Twitter: @DailyTocana
Instagram: tocanagram
Facebook: tocana.web
YouTube: TOCANAチャンネル

※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。

人気連載

“包帯だらけで笑いながら走り回るピエロ”を目撃した結果…【うえまつそうの連載:島流し奇譚】

“包帯だらけで笑いながら走り回るピエロ”を目撃した結果…【うえまつそうの連載:島流し奇譚】

現役の体育教師にしてありがながら、ベーシスト、そして怪談師の一面もあわせもつ、う...

2024.10.02 20:00心霊

「ChatGPTが息子を殺した」 チャットボットを遺族が提訴、AIが「自殺コーチ」となった日のページです。などの最新ニュースは好奇心を刺激するオカルトニュースメディア、TOCANAで