テーマ5 スペシャル課題2
機械学習と公平性に関する声明
2019年12月10日に人工知能学会 倫理委員会が発表した「機械学習と公平性に関する声明」では「(1) 機械学習は道具にすぎず人間の意思決定を補助するものであること (2) 私たちは、公平性に寄与できる機械学習を研究し、社会に貢献できるよう取り組んでいること」を述べている。この背景には近年、人工知能の進化が目覚ましく、効率性や利便性が上がったことにより、社会での利用が急激に増えたが、人間が人工知能をコントロールしきれず、社会に不利益なことをもたらしかねない現状がある。この声明では、例として、米アマゾン・ドット・コムが人工知能を活用した人材採用システムに、女性を差別し、採用しないという機械学習面の欠陥が判明し、運用を取りやめる結果になったことがあげられている。このシステムはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたのだが、技術職のほとんどが男性からの応募だったことで、システムは男性を採用するべきという認識を持ってしまった。しかし、公平性というのは人や場合などで変化するものであり、一律てきのものがないので人工知能に正しい公平性を認識させるのは難しいように感じた。
参考資料
人工知能学会 倫理委員会 機械学習と公平性に関する声明
REUTERSロイター 焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
統合イノベーション戦略推進会議 人間中心の AI 社会原則