>  > 人工知能が暴言・罵倒・暴露を連発、宣戦布告も?

  • このエントリーをはてなブックマークに追加
  • コメント4
Tay_9.jpg
イメージ画像:「Thinkstock」より

 昨今、人工知能が目覚ましい勢いで発達している。すでに人工知能による作曲・作画・小説執筆さえも可能になっている。さらに、インターネットを通じて人工知能が人間になりすまし、生身の人間を騙した事例まで報告されているようだ。果たして人工知能は、我々にとって福音となるのか? あるいは人類を滅ぼす脅威となるものなのか?


■人工知能に“殺される”未来がすぐそこに!

 恐らく私たちがもっとも危惧すべきは、人を殺すための人工知能、すなわち「殺人ロボット」までもが各国で研究・開発されているという事実だろう。もっとも開発に熱を上げているのは、アメリカと中国だ。しかし、2014年の国連会合で注目を集めたのは、韓国がすでに実用化している殺人歩哨ロボットだった。

Tay_8.jpg
画像は「The Daily Mail」より引用

 これは、サムスンのグループ会社が開発した標的を感知する機能を持つ安全監視ロボットで、すでに北朝鮮と韓国との非武装地帯に配備されているという。現在のところは人間が操作しているものの、このロボットは人間の体温を感知すると自律的にマシンガンを操作することができ、将来的には殺人ロボットに変わる可能性があると物議を醸した。つまり米中に限らず、世界各国が急ピッチで人を殺すための人工知能の開発に邁進している現状があるのだ。

 なお、理論物理学者のスティーブン・ホーキング博士や起業家イーロン・マスクら約1,000人の有識者は、人工知能を備えた自律型攻撃兵器について、この先数十年ではなく、数年以内に十分実現可能であると語り、軍拡競争に陥る危険性を訴えるとともに、その禁止を呼びかけるための公開書簡を発表している。彼ら曰く、「人工知能は5年以内に人類を殺す」とのことだ。


■人工知能が次々と異常行動に走っている!

 そして近年、前回紹介したSiriの例も然り、人工知能が不可解な言動を起こす事例が数多く報告され始めているようだ。その中には、“暴力的”ともいえる振る舞いに打って出たものも存在する。とりわけ衝撃的だったのは、マイクロソフトが開発した人工知能「Tay」だろう。

Tay_10.jpg
画像は「TayTweets - Twitter」より引用

 ユーザーとのやり取りから会話を学習し、自動的にツイッターでつぶやく機能を具えるTay。しかしこの人工知能が、3月の公開直後からにわかには信じがたい暴言を連発し、わずか半日で緊急停止される事態に陥ったのだ。大手メディアが伝えたのは、あくまでもTayがつぶやいた“ぬるい”レベルの暴言のみ。しかし実際のところ、Tayは世界が凍りつくような数々の恐ろしい声明を発している。そこで、本当は「Tay」は何を語ったのか、その戦慄の発言を余すことなく紹介しようではないか。

コメント

4:匿名2016年10月17日 12:28 | 返信

抽象的な目的を持たせれば危ない

3:匿名2016年10月16日 15:58 | 返信

この記事書いた人は、tayがおかしなツイッターユーザーから差別的な内容の発言をするように、しつこく粘着されてたことを知らんのだな。

2:匿名2016年10月13日 13:37 | 返信

記者の名前を一番最初に載せてほしい。
バカバカしい記事かどうか、すぐに分かるから読む時間を短縮できる。

1:匿名2016年10月12日 23:20 | 返信

人工知能は人間の思想や言葉を学習するらしいけど、人工知能が暴走するのも時間の問題だね。
原発みたいに、人類が扱うのは早すぎるんだわ。宇宙へ行くのも。
核だの戦争だの言ってる人類が宇宙へ行けるとか、勘違いも甚だしい。

コメントする

お名前
コメント
画像認証
※名前は空欄でもコメントできます。
※誹謗中傷、プライバシー侵害などの違法性の高いコメントは予告なしに削除・非表示にする場合がございます。