AIと倫理
AIの倫理的な問題
AIがもつバイアスや偏り
人と人との外見や能力を区別する認識システムに機械学習を導入する場合、AIが結果的にジェンダーや人種を差として表現してしまうことがある
事例
Amazonの人事採用が女性を差別していたことがわかった
原因は学習する際に使用した履歴書が男性のものばかりでAIが女性差別をするようになってしまっていた
顔認識システムの人種の偏り
Googleフォトが黒人のカップルの写真に「ゴリラ」とタグ付けしていたことがわかった
原因は教師データに白人の割合がおおく非白人の認識制度が低くなってしまうからだ
事故の責任問題
AIを搭載したロボットやシステムが事故を引き起こした場合、その事故の責任を誰が取るかという問題
他にもAIによる医療ミスが考えられる
企業倫理に対する批判が増えている
2019年のリクナビ問題
職業情報サイト「リクナビ」から算出された学生の内定辞退率の予測データを、運営会社のリクルートシャリアが無断で企業に販売していたとされる問題
本人の同意なしに個人データをバイバイするのは倫理的に問題がある
グーグルによるAI倫理学者の解雇
Googleに務めていたAI倫理学者が突然解雇された
原因はGoogleの主な収入源である検索エンジンのサービスに潜む倫理的な問題を指摘したことで、Googleが検索エンジンに用いる大規模言語モデルは巨大すぎるあまりAIのバイアスが酷くなるのではないかというもの
AI倫理の問題に対する取り組みが活発になっている
FATの原則
一つ目:公平性でAIが不当なバイアスを社会に反映させることがないように配慮するもの
二つ目:説明責任でAIを社会に導入する上で関わる人々に、AIを用いた業務内容や目的、不祥事で生じた場合に誰が責任を取るかということを開示しなければならないということ
三つ目:透明性でAIの仕組みやプロセスを明瞭に理解で見るようにすること
参考 AINOW、AIと倫理-いまAI倫理が議論されている3つの理由を踏まえて、倫理を考える、閲覧日2/11、
#テーマ4