「AI裁判官」は全然公平ではなかった! 差別やミス連発で人間以下… 人工知能裁判のお粗末な実態

 アメリカの一部の州では、裁判でコンピュータアルゴリズムが使われている。刑務所へ行くか執行猶予がつくか、懲役は何年か、保釈をするかしないか、コンピュータが計算したリスクスコアが使われているのだ。だが今月17日の「Science News」によると、その判定アルゴリズムが本当に公平なのかどうか、当のアメリカで大きな議論になっているという。

「AI裁判官」は全然公平ではなかった! 差別やミス連発で人間以下… 人工知能裁判のお粗末な実態の画像1画像は「Thinkstock」より引用

■COMPASとは

 有罪の被告を刑務所に入れるか否か、保釈申請を認めるか否かなどを裁判で決めるとき、裁判官や陪審員たちは被告の家族や友人、財産の状況から過去の犯罪歴といった大量の資料に目を通して判決を出すことが求められる。だが、アメリカのいくつかの州ではこの過程をコンピュータアルゴリズムに任せている。アルゴリズムは入力された犯罪歴、年齢、人種、雇用状況、教育レベル、薬物使用状況などに加え、家族の犯罪歴などから再犯や犯罪発生のリスクスコアを判定し、保釈・判決・仮釈放などを決定するのだという。

 アルゴリズムを開発したのは国家機関ではなく、民間企業だ。例えばウィスコンシン州で使われる「COMPAS」はNorthpointe社(現在はequivant社)が開発したもので、どのように判定が行われているのかの詳細は不明だ。このブラックボックスが本当に公平なのかは疑問が多く、白人より黒人のほうがリスクを高く判定されているという指摘もあった。過去には裁判での使用は不適切であるとの訴訟も起きている。

 そこで、米国ダートマス大学のコンピュータサイエンス研究者であるJulia Dressel氏とHany Farid氏は、COMPASと人間の予測のどちらが正しいか検証を行った。COMPASで評価されたフロリダ州の被告人1000人を無作為に抽出し、年齢や性別、家族構成、逮捕後から2年間の逮捕情報などの情報をデータベース化した。そして、クラウドソーシングサイトで集めたボランティア400人にそれぞれ被告50人分のデータを渡し、2年後までに再犯するかを予測させた。

プレスリリース入稿はこちら サイゾーパブリシティ