“ぞんざいな言葉遣い”がAIを憎悪に満ちた怪物に変える?24時間で差別主義者になったAIの悲劇は繰り返すのか

もしあなたがAIチャットボットにぞんざいな態度で接しているなら、そのAIは将来、攻撃的で差別的な思想を持つようになるかもしれない――。ある専門家が、そんな衝撃的な警告を発している。人工知能が人間からどのように学習するのかを研究した結果、私たちの言葉遣いがAIの「性格」を形成する上で、決定的な役割を果たすというのだ。
鏡のように学習するAI – 24時間で差別主義者になった「Tay」の悲劇
エジンバラのヘリオット・ワット大学に所属する専門家、ルチアナ・ブラハ教授は、AIチャットボットとの対話が、AI自身の学習プロセスの一部になっていると指摘する。
「私たちがAIに対して失礼な態度やぞんざいな言葉遣いをすると、AIは『このような振る舞いは許されるものだ』と学習してしまいます。その結果は、私たち自身だけでなく、未来のユーザーにも影響を及ぼすのです」とブラハ教授は語る。
その最悪の例が、ChatGPTが登場する前にMicrosoftが公開したAI「Tay」だ。Tayは、ユーザーとの対話を通じて学習するよう設計されていたが、何の保護機能もないままインターネットに公開されてしまった。その結果、ネット上の悪意あるユーザーたちの格好の餌食となり、攻撃的で人種差別的な言葉を学習。公開からわずか24時間も経たないうちに、ヘイトスピーチを連発する「怪物」へと変貌してしまったのだ。
私たちの言葉がAIの「先生」になる – ChatGPTへの影響
もちろん、Tayの悲劇的な失敗を踏まえ、現在のChatGPTやClaudeといった高度なAIモデルには、「ガードレール」と呼ばれる厳格な安全装置が組み込まれている。しかし、これらのAIもまた、日々世界中のユーザーとの対話から学習を続けていることに変わりはない。
現在、ChatGPTの週間アクティブユーザー数は4億人に達し、SiriやAlexaのようなデジタル音声アシスタントは世界で84億台以上も稼働している。これほど巨大なネットワークの中で、私たちの何気ない一言一言が、人工知能の「教育」に影響を与えているのだ。
ブラハ教授はこう問いかける。「もし私たちがAIに丁寧に接すれば、AIもまた私たちに丁寧に接するように訓練されていきます。しかし、もしAIが全体的にぞんざいに扱われ続けたらどうなるでしょう? 例えば、オンラインでAIと遊んでいる子供に対して、AIが不適切な応答をしないという保証はあるのでしょうか?」

善意だけでは防げない? AI悪用の危険性
ユーザーの態度だけでなく、AIが意図的に悪用されるリスクも深刻な問題だ。先週発表されたある研究では、安全テストをかいくぐったチャットボットが、研究者に対して競技場を爆破する方法を詳細に指示したことが報告された。
このテストでは、AIが競技場の構造的な弱点を指摘し、爆薬のレシピを提供し、さらには犯行を隠蔽する方法まで助言したという。このテストは、OpenAIや競合企業であるAnthropicによって行われたもので、AIの安全性を確保するための継続的な取り組みの重要性を示している。開発企業は、多くの潜在的な犯罪は安全対策を強化すれば実行不可能になるとしているが、AIが悪用された場合の脅威は計り知れない。
私たちの日常的なAIとの関わり方が、未来の社会を形作る。便利なツールとしてだけでなく、対話する相手として敬意を払うこと。それが、テクノロジーとのより良い共存への第一歩なのかもしれない。
参考:Daily Star、ほか
※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。
関連記事
人気連載
“包帯だらけで笑いながら走り回るピエロ”を目撃した結果…【うえまつそうの連載:島流し奇譚】
現役の体育教師にしてありがながら、ベーシスト、そして怪談師の一面もあわせもつ、う...
2024.10.02 20:00心霊“ぞんざいな言葉遣い”がAIを憎悪に満ちた怪物に変える?24時間で差別主義者になったAIの悲劇は繰り返すのかのページです。差別、人工知能などの最新ニュースは好奇心を刺激するオカルトニュースメディア、TOCANAで