Hirokazu Shirado - Cybernetic Humanity Seminar Series
https://www.youtube.com/watch?v=KzJfWuyw6SQ&list=PLX2JSSjQzxy0kHxEP30KS-YA7uI59hi5M&t=3s
claude.icon
実験1: ネットワークにおける協調ゲーム研究(Nature 2017)
実験設計:
ネットワーク上で20人の参加者が3色から選択
各参加者は隣接ノードと異なる色を選ぶ必要がある
3つのボットを導入(17人の人間参加者 + 3ボット)
5分以内に全体で色の衝突を解消する必要がある
ボットの条件:
行動ノイズレベル:
0%(完全合理的)
10%(少しランダム)
30%(より多くのランダム性)
ネットワーク上の位置:
中心(最も接続が多い)
ランダム
周辺(最も接続が少ない)
主な発見:
10%のノイズを持つ中心配置ボットが最も効果的:
グループの問題解決を加速
中心プレイヤーのランダム性を増加
周辺プレイヤーのランダム性を減少
0%ノイズ(完璧なボット)は局所的最適解から抜け出せない
30%ノイズは不安定すぎて最適解に到達できない
実験2: 運転協調実験研究(PNAS 2023)
実験設計:
オンライン参加者が物理的なロボット車を遠隔操作
2台の車が1車線道路で対面する「チキンゲーム」状況
10ラウンドの繰り返し実験
経済的インセンティブ(早く目標に到達するほど報酬が高い)
実験条件:
安全支援システム:
手動運転(警告のみ)
自動ブレーキ
自動ステアリング
自動ブレーキ+自動ステアリング
コミュニケーション機能:
メッセージ機能あり(「先に行ってください」「ありがとう」)
メッセージ機能なし
詳細な発見:
自動ブレーキの影響:
人間の意思決定を支援
コミュニケーションを促進
互恵的行動を維持
社会的選好の多様性を保持
自動ステアリングの影響:
人間の意思決定を代替
コミュニケーションを抑制
互恵性を消失
行動を利己的方向に収束(約90%が利己的行動)
補足実験の知見:
自動ステアリング導入後、行動パターンが劇的に変化
システム除去後も互恵的行動が回復せず
理論的示唆:
実践的含意:
AI支援システムの設計には社会的影響の考慮が必要
技術的効率性と社会的規範のバランスの重要性
人間のエージェンシーを維持しつつ支援する設計の必要性
この研究は、AI技術の導入が個人の行動だけでなく、社会的規範や協調メカニズムにも深い影響を与えることを示しています。特に、支援の方法によって、人間の社会的行動パターンが大きく変化する可能性を明らかにしました。