社会認識論
確証バイアスに関して、個人が特定の認識に固執することよりも、みんなの固執の方向が同じという社会的な面を問題にすることができるかも
DAN SPERBER, FABRICE CL ´EMENT, CHRISTOPHE HEINTZ, OLIVIER MASCARO, HUGO MERCIER, GLORIA ORIGGI AND DEIRDRE WILSON "Epistemic Vigilance" ノイズに強い情報。高いところにいくというタスクを考えたとき、高くても尖っている地形の上にいる人は小さな揺れに対して弱い。一方、多少低くてもなだらかな地形の上にいることは、揺れに対して安全になる。「高さ」を「正確さ」に置き換えてみよう。伝言ゲームでノイズが加わったときに、どれくらい正確性にダメージが入るかどうか。
「伝言ゲームによってメッセージが近傍のメッセージに変化しても真偽値が保たれる」という伝言ゲーム安全性という性質を考える
分析哲学では、仮定をおいて、「この仮定のもとではこれが導かれる」という話が多いと聞いた。各人が自分のすべての仮定の正しさをチェックするより、○○ならば☓☓という知識を積み上げていったほうが、分業による利益が得られるのかも。
(たとえば、功利主義を前提にするとこうなる、という文章を書く人がみんな、功利主義の根拠として示される議論に精通している必要はないだろう。そうだとしたら、分業の利益が得られず、時間を無駄にしてしまうだろう。(まあそうすると、間違った前提のお話がいっぱいになってしまうリスクもあるのだけど)) (聖書を前提にするとこうなる)
論争になっているお互いに結びつきのない複数の問題について、一方によって支持されている立場が全部正しいというのは確率的にありえそうにない。
追記: 「自陣営が全部正しい確率は低い」というのは、「自分の信念が全部正しい確率は低い」という議論と似た話なのでは。
ここでの解決は、まえがきのパラドックス preface paradox と同じで、「全部正しい」確率が低くても、それぞれが正しい確率は高くありえると論じることでは
全部正しくないから何なのか、ってだけでは
どの国でも、領土問題で自国側の主張が正しいと思っている人の方が結構多いと思うけど、複数 の領土問題がある場合に、その全部について自国側の主張が正しい確率は低いだろう
領土問題が3つだとするとそれぞれ1/2としたとき全部自国が正しい確率は1/8
あるいは他の内集団/外集団間の論争について考えてみよう。
暴露論証と結び付けられる?
これを回避する方法の1つは、それらの問題の間には実は結びつきがあるのだと論じ、一般的にいずれかを支持する論証を提示すること。
相手側のバイアスを持ち出して、お互いに結びつきのない問題の間の関係性を説明することがある。(世間では自分側の意見が過小評価されるバイアスがあるため、自分はこちらの側を支持して議論をしているのだ、というような)
帰結主義的リバタリアンは、支持する各政策を1つのグループの中に統一するものが欠けてて、general argument ができない気がするので、この批判に服する? (厚生経済学の第1基本定理とかは、general argumentではあるけど)
相手の仮定に立った場合でも自分の結論を導けるとよく考えている人にも同じことが言える
「仮に伝統主義の立場に立ったとしても夫婦別姓を正当化できる」みたいな
理屈上そういうことが頻発する理由はあんまないけれど、他人を説得するのに有利なのでそういう信念をたくさん形成してしまう人はいるとおもう
義務論に立った場合も、功利主義に立った場合も同じ結論を擁護できるとする人
理由が複数ある事自体は suspiciously convenient なのか?
理由同士が不整合をきたしてるのに同じ方向を向いているのは単に都合が良いから言ってる可能性が高い
しかし現実に存在する事実は複数の結果をもたらすから複数の証拠が同じ方向を指し示すと予想するのは不合理ではなさそう
このことは規範的な議論や哲学的な議論に適用できなそうに思える
数学は?
数学においては証拠というのはつねに理由があれば結論が真になるような完全な証拠なので、複数の証拠が違う方向を指すことはない
厚い概念
「平等はそれ自体としてよく、さらに良い結果を持つ」と考えるような平等主義に対しても同じ議論が適用可能
Another thought I had was that if you are looking for more convincing examples than the one with Catholic men, there is some very interesting literature from John G. Bullock on voter rationalism. He has made some experimental tests to see what political facts people from different political extremes believe in under different scenarios. When people are offered money for getting objective answers about political economy and political consequences right people from the far right and far left mostly agree on the facts. When no money is on the line they are very partisan in their beliefs about the same set of objective facts. There is something interesting here about what the right beliefs are, or whether beliefs are wholly dispositional and so just change under circumstances (this would have the consequence that beliefs are highly contextual and flexible).
polarizationについての対立する仮説
契約論的な考え方。社会的な認識実践自体が人々の自発的な協力に基づいているため、そこからみんなが利益を得ることが協力 (情報の正確性を保つ、情報を共有する) を保証する上で重要なのかもしれない。
Right now, if I say “giving money to promote rigorously evaluated public health programs in poor countries is an admirable thing to do,” I think most people would be inclined to agree. But if we had a hot button political conversation about cutting Social Security to support Vitamin A supplementation, opponents wouldn’t want to just say “well, I’m selfish so I don’t want to do it.” The backlash would involve people making the claim that Vitamin A supplementation is actually bad. We’ve already seen Marc Andreesen, because he disagrees with some prominent effective altruists about AI safety, promoting absurd theories that helping poor kids avoid malaria is bad.
つまり、社会的な認識実践、あるいは大きな社会的協力から利益を得ていないと感じる人は不正確な情報を流す動機が大きいかもしれない。
人狼の認識論理 / ベイズ確率論 / 認識ゲーム理論による分析
「○○の立場の人はそう言うね」
立場が分かれている場合に、理由を他人から引いてくることの扱いは、そうでない場合と違う
ランダムに自然からサンプルされた理由と、特定の立場のプールからサンプルされた理由では証拠としての強さに違いがある
拡張された心 アンディ・クラーク
キム・ステレルニー
ヒューゴ・メルシエ