AIが良からぬ判断をしてしまった例
https://gyazo.com/28ec97aa31366a86900aaa1ab92a8986
人工知能(AI)による判断はとても正確で、論理的なものである。
しかし、そんなAIも決して全知全能という訳ではなく、素人目に見てもおかしいと思うような判断をしてしまった事例も多く存在する。ここではその代表的な事例を1つ紹介しようと思う。
大手通販会社Amazonは、AIを用いた人事採用システムを導入するために、過去10年分の履歴書や採用の可否のパターンを機械学習させていた。
https://gyazo.com/d03bb41d906c2215d3a2c97e987e0860/thumb/200#.jpeg
過去に採用した技術者の傾向や特徴を分析し、どのような人物が採用するに値するかを判断させようとしたのだ。
しかし、過去の応募の大半が男性からであったため、AIは男性を採用することが好ましいと認識した。
そして反対に履歴書に女性に関する単語が記されていると評価が下がるようになり、ついには女性であるというだけで評価を落とすようになってしまった。
このことはAIによる統計的差別の問題として大きく話題になり、やがてAmazonはこのシステムの運用を停止した。
このようにAIを用いた判断は必ずしも正確で優れているという訳ではなく、問題点も数多く存在する。今後の技術開発では、このような合理的学習による弊害をどう乗り越えていくかが重要になっていくのではないだろうか。
参考資料
Jeffrey Dastin 「焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で」REUTERS 2018年10月11日https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN 2021年1月7日閲覧
曽我太一「AIがあなたを差別するかもしれません」NHK NEWS WEB 2019年12月16日https://www3.nhk.or.jp/news/html/20191216/k10012216531000.html 2021年1月7日閲覧
#テーマ4