Amazon顔認証システムのバイアス問題
下記の記事が出ている。
Amazon facial-identification software used by police falls short on tests for accuracy and bias, new research finds
Washington Post: January 25, 2019
https://www.washingtonpost.com/technology/2019/01/25/amazon-facial-identification-software-used-by-police-falls-short-tests-accuracy-bias-new-research-finds/
(余談)
通常,人間の判断には一定のバイアスがかかっている。
「公平」に判断することは難しいことだ。そもそも「公平であるか否か」の価値判断基準それ自体に(非常に多くの場合)最初からバイアスがかかっている。
それゆえ,人工知能技術が進歩し,人間の思考に近似したものになればなるほど,このバイアス問題の深刻度が高まる可能性がある。
人間において「公平」が非常に難しいものであるのと同様,人工知能システムに「公平」を実装することは難しく,そもそも,理論的に不可能ではないかと考える。なぜなら,その判断基準を定義することが非常に困難なことだからだ。
仮に適正に定義できたと仮定して,その定義が大多数の人々から承認されない可能性が高いということも理解しておく必要がある。なぜなら,大多数の人々の内心の価値判断基準には最初からバイアスがかかっているからだ。最初からバイアスがかかっている大多数の人々にとって,バイアスがかかっていない判断基準は,当該の人々にとって負のバイアスがかかっているのと同じことになるので,賛成できるわけがない。
しかも,ここでもまた,「価値判断」それ自体が単一の心理現象または精神現象であると理解するのは誤りで,少なくとも異なる3層以上の要素で構成された複雑な構造体であるということを理解しておく必要性がある。
| 固定リンク
コメント