機械学習にまつわる倫理的問題
統計的差別
機械学習(AI)によって、「入手可能なデータ」のみから統計的にモデルを作った結果、特定の属性をもつカテゴリ(たとえば性別、学歴など)に不利益を与えるような「合理的判断」をしてしまう「統計的差別」をしてしまうことがあり得る
(参考)機械学習による差別の助長
「焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で」(ロイター記事)
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN
学習に使用したデータの偏り自体を学習してしまう
統計的差別につながる危険性を常に検討すべき
「自身で変更できない属性」であればなおさら慎重になるべき
機械学習と公平性に関する声明
人工知能学会倫理委員会等の「機械学習と公平性に関する声明」(2019/12/10)
ハルシネーション(幻覚)
ChatGPTのような大規模言語モデルは、「存在しない情報を作りだしてしまう」という「ハルシネーション(hallucination; 幻覚)」とよばれる致命的な問題をもつ
幻覚によって生成された誤った情報は、人間や専門家にも本物かどうか区別がつかないほど正確にみえてしまうことがある
(参考:『大規模言語モデルは新たな知能か ChatGPTが変えた世界 』)
ELSI
ELSIを参照