ALIGN Webinar#5 「AIガバナンスとフェアネス」ゲスト:工藤郁子さん(大阪大学社会技術共創研究センター特任准教授) - YouTube
このドキュメントについて
佐藤まみhealthy-sato.iconのインプットメモ
ALIGNウェビナーで初の日本語開催となる第5回では、大阪大学社会技術共創研究センター特任准教授の工藤郁子(くどう・ふみこ)さんに講演いただきました。AI技術について法学と国際ルール形成の観点から見てこられた工藤さんより、近年のAIガバナンスの状況の大きな見取り図、そして重要論点としての「フェアネス」を取り上げ、顕在化しているバイアスの問題と、そもそもなぜバイアスが問題なのかに関する法学・倫理学からの分析を共有いただきました。
https://www.youtube.com/watch?v=J9KoO29da9I
https://www.youtube.com/watch?v=J9KoO29da9I
https://www.youtube.com/watch?v=J9KoO29da9I
claude.icon
サマリ
1. 導入
講演者の背景:法学(特に憲法)を専門とし、世界経済フォーラムでの経験あり
AIに関するグローバルルールメイキングに貢献
2. AIガバナンスの現状
2.1 AIに関する倫理原則の議論
2010年代後半に多くの議論と合意形成が進む
価値の重要性や目的に関する議論(Why)が中心
2.2 2020年代の傾向
実践(How)に関する議論が増加
価値の担保方法や確認方法に焦点
2.3 AIガバナンスの多層性
原則、ガイドライン、法律、自主規制、技術標準など多層的
ガバナンスの主体も多様(政府、企業、NGO、標準化団体など)
2.4 各国・地域のアプローチ
アメリカ:デジタル自由主義(市場と技術の力を信頼)
欧州:デジタル立憲主義(基本的権利を重視)
中国:デジタル権威主義(国家や政権の安定を重視)
3. 生成AI普及前後の問題意識の変化
3.1 生成AI以前の問題意識
AIを用いた個人分析が自由や平等に及ぼすリスク
例:顔認証システムの精度の差による問題
3.2 生成AI以後の問題意識
AIの開発・利用過程を通じた社会的不平等の再生産
例:
データ収集・クリーニング作業における労働問題
著作権問題(フェアユースと利益還元の議論)
生成AIによる偏見やステレオタイプの再生産
4. フェアネスに関する学説
4.1 過小代表説
実社会を適切に代表できていないことが問題
利点:目標設定と技術的改善が容易
難点:実社会のバイアスをそのまま反映する問題
4.2 自由侵害説
基本権・人権・自由の侵害が問題
利点:法的判断が比較的容易
難点:権利侵害に至らない不利益や社会全体の現象を扱いにくい
4.3 社会的意味説
特定の文脈で特定の人々を貶める意味を持つことが問題
利点:社会的・文化的現象としてフェアネス問題を捉えられる
難点:基準設定が難しく、立法技術上の課題がある
5. AI for Science とフェアネス
AIの科学への応用が各国の研究開発能力や生産性に影響
AIのバイアスが科学的知見の発見方向性を歪める可能性
例:特定地域のデータに偏ることによる医薬品開発への影響
6. 今後の課題と展望
多様な立場や価値観の調整
国際的な協力と競争のバランス
企業のAIガバナンス実践の発展
フェアネスの基準や監査方法の確立