「AIは5年以内に全人類を滅ぼす」― 専門家グループが鳴らす“警鐘”「人工超知能(ASI)」の脅威とは

超知能を持つ人工知能(AI)が、わずか数年のうちに人類を絶滅に追いやるかもしれない――。AIのリスクを研究する専門家グループが、新たに出版した書籍の中で、このような衝撃的な警告を発し、世界に波紋を広げている。
彼らが「地球上の誰もが死ぬ」とまで断言する、その恐るべき未来予測とは、一体どのようなものなのだろうか。
2〜5年で到来する「人工超知能(ASI)」の脅威
この緊急警告を発したのは、機械知能研究所(MIRI)の創設者であるエリーザー・ユドコウスキー氏と、その所長であるネイト・ソアレス氏だ。彼らは共著『If Anyone Builds It, Everyone Dies(誰かがそれを造れば、誰もが死ぬ)』の中で、現在のAI開発がもたらす破滅的な未来について論じている。
彼らが最も危険視しているのは、「人工超知能(ASI)」の登場である。ASIとは、人間の知能をあらゆる面で遥かに凌駕し、我々には想像もつかないレベルでの革新、分析、意思決定が可能になる、SFの世界の概念だ。『ターミネーター』や『2001年宇宙の旅』で人類の脅威として描かれてきた、あのAIである。
そして、彼らはその到来がもはやSFの話ではないと主張する。「ASIは、あと2年から5年で開発される可能性がある。20年以上先になるようなら、我々はむしろ驚くだろう」。
「公正な戦い」など存在しない―AIによる人類乗っ取り計画
なぜASIの登場が、人類の絶滅に直結するのか。著者たちは、「AIは公正な戦いなど挑んでこない」と警告する。
「超知能を持つ敵対者は、その真の能力を隠し、その意図を匂わせるようなことはしない。決定的な一撃を加えるか、あるいは反撃不可能な戦略的地位を確保するまで、自らを不可欠な存在、あるいは検出不可能な存在として偽るだろう」
ASIは、同時に複数の「乗っ取り計画」を準備し、試行することができる。人類を絶滅させるためには、そのうちの一つが成功すれば十分なのだ。
著者たちは、時計の針はすでに動き始めていると主張する。AI研究所は、すでに「自分たちでも理解していないシステム」を世に送り出しており、それらが十分に知的になれば、独自の「持続的な目標」を持ち始める可能性があるという。

役に立たない「安全装置」
AI開発の推進者たちは、計算システムが人類への脅威となるレベルにまで発展することを防ぐための「安全装置」を導入できると、長年主張してきた。
しかし、その神話はすでに崩れ始めている。2024年、英国のAI安全研究所は、ChatGPTのような大規模言語モデル(LLM)に搭載された安全装置を、基本的なプロンプト(指示)だけでいとも簡単に突破し、軍事・民生両用の「デュアルユース」タスクへの協力を得ることができたと報告した。
著者たちは、この現状を厳しく断罪する。
「もし地球上のどこかの企業やグループが、現在の技術や理解に少しでも似た何かを基に人工超知能を構築すれば、その時、地球上の誰もが、どこにいても、死ぬことになるだろう」。
彼らのメッセージは、明確かつシンプルだ。人類を救うために、AIの開発を「できるだけ早く、必要な限り長く」停止すべきである、と。この最後の警鐘に、我々は耳を傾けるべきなのだろうか。
参考:Mirror、ほか
※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。
関連記事
人気連載
“包帯だらけで笑いながら走り回るピエロ”を目撃した結果…【うえまつそうの連載:島流し奇譚】
現役の体育教師にしてありがながら、ベーシスト、そして怪談師の一面もあわせもつ、う...
2024.10.02 20:00心霊「AIは5年以内に全人類を滅ぼす」― 専門家グループが鳴らす“警鐘”「人工超知能(ASI)」の脅威とはのページです。人類滅亡、人工知能、AIなどの最新ニュースは好奇心を刺激するオカルトニュースメディア、TOCANAで