熟議支援系研究サーベイ
研究として熟議を支援する技術は色々提案されている
ラボ実験レベルから、実践投入のフィールド実験まで色々
それらをまとめることには価値がありそう
関連研究の概観を得るにはこれを読むのが一番良さそう。
以下の四つについて、既存の技術、実践、解くべき課題が整理されている
Collective Dialogue Systems (集団議論. Polisとか)
Bridging System (分断の架け橋となる仕組み)
AI-enhanced Community Moderation (モデレーション. XのCommunity Notesとか)
Proof of Humanity Systems (人間証明. マイナンバーとか)
議論支援系
要約
AIが熟議過程を仲介し、人々が共通の基盤を発見できることを示した研究。
人間仲介より好評なグループ合意文を生成でき、意見分極を軽減。
仮想市民集会でも効果確認、代表性ある集団で政策論点に合意形成を後押し。
ポイント
意見交換の後、議論参加者の態度が収斂し、分裂が減少した。
少数派意見も組み込みつつ合意形成を促す仕組みがある。
バイアス検証でAIモデル自体が特定立場へ誘導しないことを確認。
https://gyazo.com/289c2407f68e5d84e7d0122d8e7dedc6
この研究はケース(具体例)を用いて参加型の政策設計を促すオンラインシステム「PolicyCraft」を開発した。
利用者は事例に基づいて既存の政策案を批評・修正したり、新たな政策を提案することで、意思疎通や合意形成を強化できる。
大学クラスでの実証では、具体的事例を用いたグループは合意度が高く支持を得やすい政策を作成することが示された。
https://gyazo.com/62ab15c76f90a49280f5fdc08017bdbc
この研究は、大規模言語モデル(LLM)向けのポリシー策定を「プロトタイピング」によって迅速かつ対話的に行う新手法を提案している。
専門家や関係者が実際にモデルと対話しながら、ポリシー案をテスト・改良するプロセスを重視している。
この方法により、合意形成や多様な意見の反映が効率良く行われ、より精緻なモデル行動指針を作ることができる。
大規模言語モデル(LLM)を人々の多様な政治的・道徳的意見に合わせて微調整し、意見の合意点を示す「合意文」を生成する研究である。
人々は各自の意見を提示し、モデルは全員がより受け入れやすいテキストを作り、その合意度を評価モデルで予測・最適化する。
この結果、人間が書いた意見文や他のモデル生成文よりも、多数が納得する合意文が得られることが示された。
一部の意見除外時には不満が生じることから、真の代表性やインクルーシブ設計の重要性が浮き彫り。
Polisより、膨大な参加者の対話から多様な意見の構造と共通点を迅速に抽出し、まとめることが可能になる。
事前に社会に広く知られた意見データベースと組み合わせて有用な種コメントを自動生成できる。
議論のシミュレーションや訓練用に、仮想参加者・仮想議論を生成し、開発段階でのテストも可能。
https://gyazo.com/8a283d8d774d80166a3b8a56d7e3e2b1
本研究は、従来の社会的選択理論と大規模言語モデル(LLM)を組み合わせ、自由記述の意見から代表性あるテキスト上の合意文を導く「生成的社会的選択」を提案している。
具体的には、多数の参加者が入力した自由記述の意見群を、LLMを用いて発言者ごとの好みを推定し、新たな代表的声明を自動生成・選別することで、参加者全体をバランスよく反映した少数の要約的テキスト群を抽出する。
その結果、米国居住者100名のAIパーソナライズに関する意見をわずか5つの代表的な文に集約し、約93%の参加者が「ほぼ完全」に自分の意見を反映すると感じる成果を得た。
これ面白いねblu3mo.icon*2
この研究は、AI活用によるオンラインでのイデーション(発想創出)プロセスを体系化するTypology(類型)を提示している。
この類型をデジタル参加プラットフォームに当てはめ、現状では主に自動処理型の活用が目立ち、人間との補完的役割や集合的アイデア形成に関する応用が不足していることを示す。
この枠組みにより、類似分野からの知見を参考にしつつ、情報過多や非同期対話といった参加者の課題を改善する新たなAI支援の可能性が探れる。
この研究は、行政や市民団体が市民や専門家など多様な「群知能」を利用し、公共課題の解決や政策立案を効率的かつ正当性を高めて行う方法を調査した。
30を超える世界の事例から、どのように組織が市民の知恵を継続的に引き出し制度化するかを分析し、成功の鍵となる要因を抽出している。
その成果として、方法論や設計原則、組織体制、ツール活用、政治的支持の重要性など、熟議・政策決定システムを成功裏に運用するための実用的ガイドラインを提示している。
Solutionchat: Real-time moderator support for chat-based structured discussion
https://gyazo.com/e2dfba2c227a58bd174195e4ade48a72
この研究は、オンラインチャットでの構造化された熟議*を支援するシステム「SolutionChat」を提案した。
モデレーターが議論段階や重要意見の整理を円滑に行えるUI機能と、自動的に助言メッセージを提示する機能を組み合わせている。
構造化された議論フロー*をビジュアルに示す「アジェンダパネル」機能で、参加者全員が今の位置を把握しやすい。
その結果、参加者は構造把握や主要アイデア追跡がしやすくなり、モデレーターは負担軽減と議論促進が可能となる。
https://gyazo.com/4137e66408abd39be44aa5d22fee0a59
Wikumは巨大なオンライン討議を要約し、階層的なトピック構造を持つ「サマリーツリー」を生成することで、読者が必要な深さまで段階的に掘り下げられる仕組みを提供する。
ユーザは小さな単位で部分的な要約を行い、それらを統合する「再帰的なサマライズ手法」により、大量テキストも効率的かつ協調的に整理できる。
要約
SNS上の微小なデータ改変で、AIによるユーザープロファイリングを欺くことで、政治的な誘導をかわす提案
この技術はAML(Adversarial Machine Learning)を用いて、政治プロファイリングの精度を下げ、投票者が考える時間と空間を確保する狙いがある。
その結果、利用者はSNSを使い続けながらも政治的な干渉を弱め、より自律的で民主的な意思決定ができる可能性が示唆されている。
https://gyazo.com/e049b0bddbd0a23ab98edf376994dfcf
要約
この研究は、オンライン熟議にチャットボットがモデレーターとして参加し、議論を段階的に進行したり発言が少ない人を促すことで、より公平で納得度の高い合意形成を可能にした。
実験結果から、意見を整理する「構造化」と、発言を促す「参加促進」の両方が、議論の深みや合意の質を向上させると示された。
その結果、チャットボットは人間のモデレーターの一部機能を代替し、熟議をより効果的にサポートできる可能性が示唆された。
ポイント
構造化された議論は、多様な意見や丁寧な理由づけを引き出しやすく、熟議の質を上げる。
合意形成の「本物度」が向上し、参加者が本心からグループ結論に納得しやすくなる。
議論初期に個人意見を明確化する工程を設けることで、思考が誘導されにくくなる。
https://gyazo.com/a48262572366fe793c370094e6b7564bhttps://gyazo.com/cc03eaea27ca752fb071e5d6b6d40358
この研究は有害コンテンツが蔓延するWhatsAppグループ内で、対話エージェントを用いて匿名熟議を促すことで問題解決を図った。
エージェントは問題投稿を検出し、メンバーに個別メッセージで意見を求め、それらを匿名で整理しグループへ提示する。
その結果、参加者は関係性維持や心理的抵抗を避けつつ、内容を再考・共有しやすくなり、熟議による有害コンテンツ対処可能性が示された。
この研究は、オンライン上で作業する一般の人々(クラウドワーカー)同士に、多ターンで対話しながら議論させることで、難しい判断タスクの精度を劇的に向上させる手法を提示している。
具体的には、タスクへの回答後に相反する意見を持つワーカー同士を対話型のチャットで直接議論させ、再考や説得を通じて正答へと収束させる。
この手法は、単に多数決や既存の一方向的な再考提示よりもはるかに効果的で、従来困難とされた複数選択肢問題や高精度が求められる難問に有用である。
Digital juries: A civics-oriented approach to platform governance
Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered Deliberative AI for AI-Assisted Decision-Making
https://gyazo.com/ef3993e05f9e70c27e70c8e1442eaab9
この研究は、人間とAIが意思決定を行う場で、AIからの単純な提案受け入れに留まらず、意見相違点を軸に熟議を行う新しいフレームワークを提示する。 具体的には、人間とAIが一緒に各要素(例えば受験生のGPAなど)の影響度を評価し、対話で対立意見を解消していくDeliberative AIを提案する。 評価では、従来手法より的確な意思決定や、過度なAI信頼の軽減などの効果が示唆された。
Revolutionizing Blockchain Consensus: Towards Deliberative and Unanimous Agreement
Understanding expert disagreement in medical data analysis through structured adjudication
Crowdsourcing perceptions of fair predictors for machine learning: A recidivism case study
CheXplain: enabling physicians to explore and understand data-driven, AI-enabled medical imaging analysis
Resolvable vs. irresolvable disagreement: A study on worker deliberation in crowd work
Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use
Are We Asking the Right Questions?: Designing for Community Stakeholders' Interactions with AI in Policing
AI一般
Artificial intelligence can persuade humans on political issues
Demonstrations of the potential of AI-based political issue polling
Electionsim: Massive population election simulation powered by large language model driven agents
Llm voting: Human choices and ai collective decision making
Large Language Models (LLMs) as Agents for Augmented Democracy
Plurals: A System for Guiding LLMs Via Simulated Social Ensembles
Argumentative Experience: Reducing Confirmation Bias on Controversial Issues through LLM-Generated Multi-Persona Debates
サーベイ
Large Language Models in Politics and Democracy: A Comprehensive Survey
熟議論
Public deliberation in an era of communicative plenty
When does deliberation begin? Internal reflection versus public discussion in deliberative democracy
Public opinion alone won’t save democracy
荒らし対策、moderation系
本研究は、Twitter/X上で行われた大規模なフィールド実験によって、LLM(大規模言語モデル)を用いたコンテキストに応じたカウンタースピーチが、投稿者の行動変容を促すか検証している。
実験では、差別的投稿を行うユーザーに対し、LLM生成の文脈依存メッセージと事前定型の一般的な対話メッセージを比較し、その後の投稿削除やヘイト投稿数の変化、全体的な言説のトーン変化を測定した。
結果として、一般的な警告系メッセージは僅かな改善を示すも、LLMによる文脈依存型メッセージは効果が低く、むしろ反発を招く可能性があることが判明した。
Challenges in Restructuring Community-based Moderation
Chillbot: Content Moderation in the Backchannel
Making sense of group chat through collaborative tagging and summarization
Crossmod: A cross-community learning-based system to assist reddit moderators
ModSandbox: Facilitating Online Community Moderation Through Error Prediction and Improvement of Automated Rules
The social roles of bots: evaluating impact of bots on discussions in online communities