AIと人間の「思考回路」はこんなに違う? 潜むリスクと今後の課題

人工知能(AI)が人間と同じように「考える」わけではないことは、多くの人が理解しているだろう。しかし、その違いが具体的にAIの意思決定にどう影響し、現実世界で私たちが予期せぬ事態を招く可能性があるのか――。最新の研究が、その核心に迫る発見を報告している。
この研究は、特にAIが「類推(アナロジー)」する能力、つまり、ある状況で得た知識やパターンを、別の似たような、しかし新しい状況に応用する能力に焦点を当てた。結果は驚くべきもので、AIはこの人間が得意とする思考プロセスにおいて、根本的な限界を抱えている可能性が示唆されたのだ。
パターン認識は得意でも、「応用」が苦手なAI
アムステルダム大学の研究者らが参加した研究チームは、大規模言語モデル(LLM)を対象に、いくつかのテストを実施した。一つは単純な文字列のパターンを見つける問題。例えば、「もし『abcd』が『abce』になるなら、『ijkl』はどうなる?」といった形式だ。これに対しては、人間もAI(GPT-4など)も「ijkm」と正しく答える傾向があった。
しかし、少しひねった問題になると、AIのパフォーマンスは著しく低下した。例えば、「もし『abbcd』が『abcd』(重複したbを除く)になるなら、『ijkkl』はどうなる?」という問題。多くの人間は、ルールを抽象化して「ijkl」と答える。ところが、GPT-4のような高度なAIでさえ、こうしたタイプの問題では間違いが多くなったという。研究チームのマーサ・ルイス助教授(アムステルダム大学)は、「AIは特定のパターンを認識し、それに合わせるのは得意だが、そのパターンからより一般的なルールを導き出して応用(抽象化)する能力は低いようだ」と指摘する。
さらに、物語に基づいた類推問題や、欠けている数字を推測するデジタル行列問題でも、人間と比較してAIの成績は振るわなかった。特にAIは、質問や選択肢の提示順序によって回答が変わってしまう「回答順序効果」の影響を受けやすい傾向や、単に元の情報を言い換えるだけに留まる傾向も見られたという。これは、AIが訓練データに含まれていなかった未知の事例に対して的確な予測を行う「ゼロショット学習」能力に限界があることを示唆している。

現実世界への警鐘:AI活用のリスクとは
AIが人間のように類推したり、ルールを柔軟に抽象化したりできないという事実は、単なる知的な好奇心の問題にとどまらない。AIの応用範囲が広がるにつれて、その影響は現実世界に及び始めている。
例えば法律分野。AIは既に判例調査や分析、量刑の提案などに活用され始めている。しかし、類推能力が低いAIは、過去の判例が、少し状況の異なる新しい事件にどのように適用されるべきかを正確に認識できない可能性がある。これは公平性や正義といった観点から見過ごせないリスクとなり得る。
研究チームは今回の結果を踏まえ、AIシステムを評価する際には、単に正答率のような「精度」だけでなく、こうした認知能力における「頑健性(ロバストネス)」、つまり、未知の状況や少し異なる問題に対しても安定して適切な判断ができるかどうかを、より慎重に評価する必要があると警鐘を鳴らしている。AIという強力なツールを社会に導入していく上で、その能力と限界を正確に理解することが、これまで以上に重要になっているのだ。
参考:Live Science、ほか
※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。
関連記事
人気連載
“包帯だらけで笑いながら走り回るピエロ”を目撃した結果…【うえまつそうの連載:島流し奇譚】
現役の体育教師にしてありがながら、ベーシスト、そして怪談師の一面もあわせもつ、う...
2024.10.02 20:00心霊AIと人間の「思考回路」はこんなに違う? 潜むリスクと今後の課題のページです。人工知能、AIなどの最新ニュースは好奇心を刺激するオカルトニュースメディア、TOCANAで