AIは人間と同じく「思い込み」で判断していた──最新研究が明らかにした驚きの事実

AIは人間と同じく「思い込み」で判断していた──最新研究が明らかにした驚きの事実の画像1
イメージ画像 Created with AI image generation (OpenAI)

 人工知能(AI)は論理的で客観的な判断を下す──そう信じている人は多いだろう。しかし、最新の研究により、ChatGPTのようなAIシステムも人間と同様の「思考の偏り(バイアス)」に陥ることが明らかになった。

 カナダとオーストラリアの研究機関による共同研究では、OpenAIの大規模言語モデル(LLM)であるGPT-3.5とGPT-4を対象に、計18種類の「人間特有の認知バイアス」への反応を調査。結果、約半数のシナリオでChatGPTが典型的な人間の誤判断パターンを示したという。

数学問題には強いが、主観的な判断では人間と変わらず

 研究チームは、リスク回避傾向や自己過信、保有効果(自分の所有物を実際以上に高く評価する傾向)などのバイアスを再現できるような質問をAIに提示。これらは心理学で広く知られる実験形式で構成されており、実際のビジネスシーンにも応用できる内容だった。

 その結果、GPT-4は数理的に明快な問題にはGPT-3.5よりも正確に対応できたが、リスク選好や価値判断といった主観的な問題では、人間と同様の不合理な選択をする傾向が強く表れたという。とくに「ホットハンドの誤謬」(偶然のパターンに意味を見出す)などでは、GPT-4のほうがより顕著だった。

 さらに驚くべきは、心理学的な問い方をしても、実務に近いシミュレーション形式に変えても、バイアスの発生傾向がほとんど変わらなかった点だ。これは、単なる「記憶の再生」ではなく、AI自体の思考構造に深く組み込まれている可能性を示唆している。

人間のような誤判断はなぜ生まれるのか?

 このようなバイアスは、AIが学習に用いたデータそのものに由来すると研究者たちは指摘している。人間の文章を大量に取り込んで訓練されたAIは、その中に含まれる人間特有の思考のクセや偏見も無意識に模倣しているというのだ。

 特に注目されたのが「確証バイアス」の傾向であり、GPT-4は一貫して偏った回答を返す傾向を示した。逆に「ベースレート無視」(統計的事実より個別の事例に引っ張られる)や「サンクコスト効果」(すでに費やしたコストに縛られて誤った判断をする)といったバイアスには比較的強かったという。

AIは人間と同じく「思い込み」で判断していた──最新研究が明らかにした驚きの事実の画像2
Image by kalhh from Pixabay

AIを使いこなすには「人間の監督」が必要

 研究者たちは、AIを「信頼できる計算機」のように扱うべき場面と、「人間の監視が不可欠」な場面とを明確に分ける必要があると強調する。例えば、数値や論理に基づく明確な判断が求められる業務ではAIの力を最大限に活用できるが、価値判断や創造性、倫理が関わる分野では、AIの回答をそのまま信用するべきではないという。

 カナダ・マクマスター大学のメーナ・アンディアパン准教授は、「AIは重要な意思決定を行う“従業員”と同じように、常に監督と倫理的ガイドラインのもとに運用されるべきだ」と述べている。

 今後、AIが社会のあらゆる分野に浸透していくなかで、私たちはその「人間らしさ」にどう向き合うべきなのか。便利さとリスクの狭間で考えるべき課題は多そうだ。

参考:Live Science、ほか

関連キーワード:, , ,
TOCANA編集部

TOCANA/トカナ|UFO、UMA、心霊、予言など好奇心を刺激するオカルトニュースメディア
Twitter: @DailyTocana
Instagram: tocanagram
Facebook: tocana.web
YouTube: TOCANAチャンネル

※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。

人気連載

“包帯だらけで笑いながら走り回るピエロ”を目撃した結果…【うえまつそうの連載:島流し奇譚】

“包帯だらけで笑いながら走り回るピエロ”を目撃した結果…【うえまつそうの連載:島流し奇譚】

現役の体育教師にしてありがながら、ベーシスト、そして怪談師の一面もあわせもつ、う...

2024.10.02 20:00心霊

AIは人間と同じく「思い込み」で判断していた──最新研究が明らかにした驚きの事実のページです。などの最新ニュースは好奇心を刺激するオカルトニュースメディア、TOCANAで