「AI裁判官」は全然公平ではなかった! 差別やミス連発で人間以下… 人工知能裁判のお粗末な実態

「AI裁判官」は全然公平ではなかった! 差別やミス連発で人間以下… 人工知能裁判のお粗末な実態の画像2イメージ画像:「Thinkstock」より

■驚きの結果

 結果、ボランティアの予測精度はCOMPAS(約65%)とほぼ同じ(63~67%)であった。また、人間もCOMPASと同様の人種差別的な誤った推測もしていることが明らかとなった。予測の誤りを検討したところ、白人の被告では再犯しないと予測されたものの再犯したという間違いが多く、黒人の被告では再犯すると予測されたが実際には再犯していないという間違いが多かったのだ。また、COMPASに対抗する単純なアルゴリズムを独自に作成し、COMPASと同じ程度の精度で再犯を予測することに成功した。この結果をまとめた論文は今月17日付で学術誌「Science Advances」に掲載された。

 COMPASは人間とほぼ同程度の予測精度を発揮したものの、機械判定に期待される公平さにはいささか欠けている。判定における透明性にも疑問は多く、一部では基礎的なデータの更新がされていなかったなどの問題も発覚しており、COMPAS利用の難しさが示されている。

 リスク判定のアルゴリズムは裁判のみならず、ローンの承認、教師の評価、そして児童虐待発生のリスク判定など幅広く使われつつある。裁判や人事評価にアルゴリズムを使うことは、評価者の偏見や思い込みを排除して判定を行う大いなる助けになるだろう。だが、使用しているアルゴリズムが最新のデータに基づくか、適切な判断を下しているかどうかは常に監視していなければならない。

 AIを活用する社会はもうすぐ側まで来ているのかもしれないが、それを適切に使っていくにはやはり人間の介入が不可欠ということだろう。

(編集部)


参考:「Science News」「Science Advances」、ほか

プレスリリース入稿はこちら サイゾーパブリシティ