人工知能に起こり得るバイアス、データが偏るとAIも偏見を持つ

面接で人を採用するかしないか、少額融資希望者に融資するかしないか、犯罪者の量刑をどの程度に定めるか――。

こうした判断を人間ではなくAIに判断させようという動きが広まっています。

決定いかんで人生を左右しかねないこれらの判断。そこにAIを持ち込もうという試みの背景にあるのは、AIであれば人種や性別による偏見(バイアス)なく、公平な判断を下せるだろうという期待があります。

しかし、万一AIにもバイアスが発生するならば、どうやって公平性を保てばよいのでしょう?

[—続きを読む—]