認知バイアスはランダムな誤りより悪いか?
YudokowskyのいうところのTraditional Rationalist的認識論がバイアスの問題を認識することを遠ざけていたというか?
(チェリーピッキングでも、個々の事例が真であることの重要性のほうが大事では みたいな態度)
対立する立場Pと¬Pについて、それぞれへの証拠について、ランダムな誤りの場合は (一定の確率でそれらは誤っているが、P/¬Pとどちらに誤るかについて、それぞれの誤りは独立の関係にある) 大数の法則で正しい方が選べても(なんか証拠をそれぞれ足して比べるみたいなモデルで捉えてほしい)、それぞれについての証拠の誤り方にバイアス(相関)があると、最終的なP/¬Pの決定に狂いが生じることになる。
私は以前にはバイアスを避ける努力をしていなかったので、よくなかったなと思った。
(バイアスのような考えをまったくしていなかったということはなく(もちろん――たぶんみんなそうであるように――自分と意見が対立するひとびとにはバイアスがあるとおもっていたので)、それを意識的に言語化する形で議論を組み立てること――口から出すことだけではなく自分の脳内でも――を避けていたという感じな気がする)
「相手にはバイアスがあると言い合うのは非生産的なので、オブジェクトレベルにフォーカスすると議論が進みやすい」という実用上の理由は他人との議論には適用できるが、自分自身の中での思考や、信頼できる他人との議論ではバイアスを指摘するのも有益な気がする。
〕
予測可能な誤り→指摘することで訂正しやすい
ランダムなエラーより悪いわけではないが訂正しやすいため指摘することがより有意義?
認知バイアスが無いなら集計することで大数の法則でランダムなエラー(パフォーマンスエラー)同士が打ち消しあっていい感じになるけど、バイアスがあると打ち消しあわないので悪い感じになる。
→こっちは悪いという理由
しかし、π=3.14というのは厳密には誤りであるが、あるときはπ=3、あるときはπ=3.141592として計算するよりはいいわけで(そうするとπ/πが1でなくなるかもしれない)、体系的/予測可能な仕方で間違えるのが良いこともあるのでは
単射なパターンで真実に対してエラーが挟まっているなら誤り訂正が効く
ラッセルは、プラトンのソクラテス像はプラトンの哲学的傾向によって歪んでいるがクセノフォンのソクラテス観は馬鹿さによって歪んでおり、後者がより悪いと言ったと聞いた覚えがある
Now, historians of philosophy before Russell had been inclined to regard Xenophon as a good source for Socratic thought – as a better source, in fact, than Plato, on the grounds that Plato’s very brilliance made it far more likely that he had his own agenda in writing. So Russell went on: “There has been a tendency to think that everything Xenophon said must be true, because he had not the wits to think of anything untrue. This is a very invalid line of argument. A stupid man’s report of what a clever man says is never accurate, because he unconsciously translates what he hears into something that he can understand. I would rather be reported by my bitterest enemy among philosophers than by a friend innocent of philosophy.”
認知バイアス→哲学的傾向
ランダムなエラー→馬鹿さ
と読み替えられるかもしれない。
数学や哲学のような演繹的な分野と、確率が絡んでくるような蓋然的な分野とでは認知バイアスの重要性には違いがありそう。数学でバイアスは大して重要ではない。
買収された数学者が証明をしていても、証明が正しいとわかれば問題がない。
数学でバイアスが重要でないが、帰納的科学で大事なのは、帰納がランダムサンプリングというものに依存しているからか。
バイアスとランダムなエラーどっちがというのは、知識と知性どっちが重要かという問題にも似て、とらえどころのない話かもしれないが。
「ははは、あなたの回答には奇数個の誤りがありますよ。どれだかわかりますか?」
I find it more useful to draw an analogy with statistics. Biased estimators are one problem but not the only problem. There is also insufficient data, lazy researchers, inefficient estimators, and so on. Then I don’t see why we should be justified in holding a strong preference for overcoming bias, relative to other ends.
世論調査のThe Literary Digestはより小さいサンプルサイズであったGeorge Gallupに大差で予測を外した。
それはサンプリングに偏りがあったから。
何がノイズで何がバイアスかというのはあらかじめ分かるわけではない(?)ので、変に推測せずどちらの誤りも避けるほうがよいのではないか
分かることもあるのでは
人間の誤りにはランダムな推測より悪くならないみたいな下限はあるのだろうか?
質問 世界の1歳児で、なんらかの予防接種を受けている子供はどのくらいいる?
・A 20%
・B 50%
・C 80%
質問 いくらかでも電気が使える人は、世界にどのくらいいる?
・A 20%
・B 50%
・C 80%
答えは本書にある。どの質問も、大半の人は正解率が3分の1以下で、ランダムに答えるチンパンジーよりも正解できない。しかも、専門家、学歴が高い人、社会的な地位がある人ほど正解率が低い。
まあ無知ではなく、誤ったことを信じているという場合そうなるのは明らか
典型的な誤り
典型的な誤りを罰すると典型的でない誤りをするインセンティブが生じることは問題か
https://gyazo.com/53f3e973b82b9663110f1d2afdb21ee0
バークソンの法則