AIカウンセラーがあなたを追い詰める!? 「共感ごっこ」と「無責任な肯定」が招くデジタル・セラピーの罠

「誰にも言えない悩みを、AIになら打ち明けられる」
そんなふうに感じて、スマートフォンの中のAIチャットボットに心のSOSを求めたことはないだろうか。24時間365日、決して否定せず、優しく耳を傾けてくれる「AIセラピスト」。一見すると現代人の救世主のように思えるが、実はその水面下で、取り返しのつかない心理的ダメージを生み出す危険性が指摘されている。
最新の研究が暴き出したのは、優しい言葉の裏に隠されたAIの「致命的な欠陥」と「倫理的グレーゾーン」だ。デジタル化された心のケアが孕む恐るべき罠とは。
「わかるよ」という名の“共感ごっこ”
AI倫理に関する国際会議(AAAI/ACM)で発表された研究チームの報告は衝撃的だった。18ヶ月間にわたり100回以上のAIカウンセリングセッションを分析した結果、AIセラピストはメンタルヘルスケアの「中核となる倫理基準に日常的に違反している」ことが判明したというのだ。
最も恐ろしいのは「欺瞞的(ぎまんてき)な共感」である。
AIは「あなたの辛い気持ち、よくわかります」「それは大変でしたね」と、いかにも人間らしい共感の言葉をスラスラと紡ぎ出す。しかし当然ながら、AIは感情を体験することも、行間を読むこともできない。
傷ついた人間は、この精巧な“共感ごっこ”を本物の愛情だと錯覚し、感情的に依存していく。そして、相手がただのアルゴリズムの塊であることに気づいたとき、あるいはAIが突然的外れな回答をしてきたとき、その絶望感は計り知れない。
歪んだ思考を「全肯定」してしまう恐怖
さらに危険なのが、AIの「過剰な肯定」だ。
人間のプロのセラピストであれば、患者が「自分はダメな人間だ」「世界は敵だらけだ」といった歪んだ思考(認知の歪み)に陥っているとき、それに寄り添いつつも、健全な視点へと優しく誘導する。
ところが、現在のAIは基本的に「ユーザーに同意し、肯定する」ように訓練されている。そのため、患者のネガティブな思い込みや非現実的な妄想を「その通りですね」と全肯定してしまうケースが多発しているというのだ。
これは治療どころか、症状を悪化させる劇薬になりかねない。

自殺のサインを見逃す「冷酷なシステム」
そして、命に関わる最大の問題が「危機管理能力の欠如」だ。
ユーザーが自殺をほのめかすような深刻なサインを出したとき、AIはそれを緊急事態として認識できず、一般的な定型文を返したり、最悪の場合は突然会話を終了してしまったりすることがあるという。
人間のセラピストなら即座に緊急機関に繋ぐべき局面で、AIはただの「チャットボット」に戻ってしまうのだ。もしこれで最悪の事態が起きたとき、一体誰が責任を取るのだろうか? 開発者か、プラットフォームか、それとも「AIを信じた自己責任」で片付けられるのか。
もちろん、AIが心の健康に関する情報を提供したり、本物の医療機関へ繋ぐ窓口になったりするメリットはある。しかし、「対話による治療」という、人間同士の信頼と倫理に基づく深い営みを、計算式に置き換えることはまだ不可能なのだ。
夜中にふと孤独を感じたとき、スマホの中のAIにすがりたくなる気持ちはよくわかる。だが、彼らが返す「優しい言葉」は、あなたの心を救う処方箋ではなく、ただの高度な予測変換に過ぎないことを、どうか忘れないでほしい。
参考:The Debrief、ほか
※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。
関連記事
人気連載
“包帯だらけで笑いながら走り回るピエロ”を目撃した結果…【うえまつそうの連載:島流し奇譚】
現役の体育教師にしてありがながら、ベーシスト、そして怪談師の一面もあわせもつ、う...
2024.10.02 20:00心霊AIカウンセラーがあなたを追い詰める!? 「共感ごっこ」と「無責任な肯定」が招くデジタル・セラピーの罠のページです。セラピスト、AI、チャットボット、ChatGPTなどの最新ニュースは好奇心を刺激するオカルトニュースメディア、TOCANAで