テーマ④-4:機械学習を用いる際の倫理的問題にはどのようなものがあるか?
バイアスがかかる恐れがある:学習時の傾向にあわせてしまう
使い方によっては悪い道具になる:中傷的や差別的なデータを教えこめばそれを取り入れてしまう
特定の人々に対する機械学習の偏見、差別的効果(disparate impact)は多様な問題をはらんでおり、こうした危険性は配分型(allocative harm)と象徴型(representational harm)の2種類に分類されている。
配分型の危険とは、システムがある機会やリソースを特定の人たちに対して不公平に扱うこと
象徴型の危険は、システムがアイデンティティの文脈で特定の集団の劣位を強めるときに起きる
参考
教養としてのデータサイエンス2020 ポータルサイト
2021年1月6日閲覧
GIZMODO:TOPTECHNOLOGYAI専門家が指摘。人間の差別や偏見がアルゴリズムに反映されるとき
2021年1月6日閲覧