自分の頭で考えること
#思考方法 #社会認識論
自分の頭で考えるのはいいことだ、なぜならカントがそう言ったから
追記: 「自分の頭で考えること」について自分の頭で考えるよりEpistemic Autonomy - 1st Edition - Jonathan Matheson - Kirk Lougheed -とかを読んだほうが良さそうだった
// 追記: 自分の頭で考えることの反対は、権威を原因・理由とした信念形成なので、それとの対比を意識して書くべきでは
正当化のレベルでは自分でチェックするけど、発見のレベルでは他人から得るという場合も考えられるね
関連: 証言についての還元主義/非還元主義
還元主義によれば、証言を信じるのが正当化されるのは、たとえば他人の証言を自分で何回か独立にチェックして、帰納法を使い、証言が信じられることを確立する場合とかに限る。
DAN SPERBER, FABRICE CL´EMENT, CHRISTOPHE HEINTZ, OLIVIER MASCARO, HUGO MERCIER, GLORIA ORIGGI AND DEIRDRE WILSON "Epistemic Vigilance" に証言の認識論について議論ある
証言っていうと観察報告みたいに思ってしまうけど、哲学用語としてはもっとひろいのかな
ひとまず定義しておく: Pかどうかについて自分の頭で考えることというのは、Pかどうかについての他者の判断を理由・原因として自分の判断を行うのではなく、それ以外の (観測や推論、直観、記憶などの) 理由・原因に基づいてPかどうかについて判断を行うこと。
推論を経ない場合は"考える"と呼ぶ必要がないか ("見る"とか"思い出す"だろう) (直観もある)
中間ケースがある。他人の根拠を見つつ、それが割ともっともらしい場合には他人の結論も信じる (その根拠が、他人に言われたという事実なくしてもそれ単体で信じるのに十分なわけではない) というような場合など。
また、推論を行ってPかどうか判断するが、推論のベースとなる信念は他者の判断に基づいている、ということもある。というか、ほとんどの場合はそう。自分で実験をしたり、統計調査をしたりする人は少ない。
他者の判断を参照するが、その整合性をチェックする、とかもある。
追記: 他人の信念を理由に信念形成しても、それが実在と確率的に相関してる限り証拠として問題ないのではという話がまずある。単に確率的相関で証拠の良さを考える場合、権威は他の種類の証拠に比べて劣っているわけじゃないような気がする。
Why don't we like arguments from authority? | bayes.net
Aumann の同意定理 もそういう感じの信念形成という印象を受ける
信念形成の手法ではなさそうな気もする
追記2: 「他人の信念と実際の事実の間の相関を使える」という理由で説明できないレベルで人間は権威に影響されがちというのが権威に訴える論証への否定的な反応を呼んでいる気がする。でも、それならなんで「一定のレベルまでは合理的」ではなく「権威に訴える論証は誤謬」というのだろうという問題は残る。
そもそも、「誤謬」概念は厳密に演繹的に妥当でない推論をなんでも誤謬としがちなのが一つの理由ではあるだろうけども。Fallacies as weak Bayesian evidence — LessWrong
そこで、個人としてはそれでよくても、そういうことが社会的には問題を引き起こすのではないかという以下の話につながる:
「多くの人が独立に考えた結果を集計したときには1人で考えたときより誤差が減るので、自分の中で正確性を最大限にするためには他人の意見を参照したほうがいいけど、(独立性を保つために) 信念集計のときは独立に思考した結果を集計の素材として提供するべき」
追記: 同じようなことを言っているひとがいた:
The vicissitudes of reason
An ‘optimized’ society should have different epistemological rules governing different modes of belief
Let’s say that I’m a doctor. I believe that a certain form of cancer treatment is superior to another. My view is not widely held in the medical profession.
If I wanted to be right, there’s a pretty good case I should reason as follows:
Sure my judgment could be correct, but all those people who disagree with me are equally certain of their correctness. Taking the outside view then, I’m probably in the wrong, ergo, I heavily moderate my disagreement with the mainstream, unless I have very strong special evidence that they haven’t seen.
But if everyone reasoned like this, diversity of opinion in the medical profession would fall, and medical opinion would improve in accuracy more slowly, if at all. On the other hand, there’s a pretty good argument that you want your personal physician, in making medical decisions, to lean towards the majority view strongly.
So we have a contradiction between different well-motivated norms, what should we do?
The simplest solution is Double Booking 〔the name was invented by Mark Alfano, a fellow Sydney philosopher- to be clear, he doesn’t necessarily endorse the idea〕
You should keep one set of beliefs governing what you advocate, formed solely on the basis of your judgment.
And you should keep another set of beliefs governing what you think is true on the basis of all evidence- including the opinions of others and the recognition that there is nothing all that special about your reasoning compared to that of others (or at least others with expertise in the relevant area).
Rationalism and social rationalism by Philosophy bear | Substack
Mark Alfano has told me that there are similar arguments in the literature on Social Epistemology on a related topic- confirmation bias. Apparently, there are formal results showing that, in some models, a little stubbornness and confirmation bias can prevent convergence on an orthodoxy from happening too soon. I previously wrote about that in the precursor essay to this piece I’m not particularly worried about confirmation bias
Rationalism and social rationalism by Philosophy bear | Substack
We also have to consider what I have elsewhere termed the paradox of the crowd. If you want to be right as an individual, your best bet is to adopt the most widely held beliefs, on the basis of a wisdom of the crowds’ argument- except in cases where there is reason to expect systemic bias. However, if everyone did this, the overall epistemic quality would go down. The crowds can only be wise if the individuals that make them up are not too over eager to follow the crowd’s wisdom. (This is a bit like the problem of a stock market becoming overburdened with index fund investors).
"I'm not particularly worried about confirmation bias" by philosophy bear
There is one possible flaw in always marking our beliefs to the market consensus. It’s been pointed out that if everyone believed the EMH made it impossible to consistently beat the market, then no one would do the research necessary to make the EMH true. Thus we need lots of individual actors trying to figure out where stocks should be valued, and forming opinions independent of the current market price. Otherwise the EMH does not work. But they should also be wise enough to know that they are nothing special, and hence they should advise their mother to invest in index funds, not their own hedge fund. That’s what I mean by realizing that you are nothing special. You are merely a worker ant making the EMH more true.
In macro, it’s important for people like me to always search for the truth, and reach conclusions about economic models in a way that is independent of the consensus model. In that way, I play my “worker ant” role of nudging the profession towards a greater truth. But at the same time we need to recognize that there is nothing special about our view. If we are made dictator, we should implement the consensus view of optimal policy, not our own. People have trouble with this, as it implies two levels of belief about what is true. The view from inside our mind, and the view from 20,000 miles out in space, where I see there is no objective reason to favor my view over Krugman’s.
Scott Sumner "Why Bryan Caplan almost always wins his bets - Econlib"
Scott Sumnerも、コンセンサスを改善するために各自で独立して探るべき信念と、コンセンサスを使うべき意思決定用の信念の2つの信念に分けられるということを言っている。
効率市場仮説は、(集計の奇跡と同じで) みんなが信じてしまい、誰も市場を出し抜こうとしなくなると真ではなくなる
(Scott Sumnerに対する Bryan Caplan の返答: Bryan Caplan "Why I Think I Win My Bets - Econlib")
人が多数派に頼らないで考えたときにこそ、多数派は信頼できるものになる。人がその時の支配的な考えに挑戦してきたからこそ、今の支配的な考えは信頼できる。科学が批判に基づくからこそ、無批判に信頼することができる。
関連: アンディ・クラークのニューラルネットワークの話
複数のニューラルネットが協力するケースで、最初から全員で合わせてやるより、それぞれ独立に考えて後で統合したほうが成績がいい
直観的にも、みんなにすぐその時点で分かってる最適なやり方を教えてしまうと、みんなそのやり方しかしなくなってしまい、探索範囲が広がらなさそう。
クラークの話は、各個人の独立性だけでなく、日本独自とか、埼玉独自とかの知的伝統を作ってあとで統合するということを支持する議論にもなる?
フォーマットが同じにならないので後で統合するのが難しそう
用語とか
みんなが数字を出すならいいけど
Studies On Slack | Slate Star Codex
多様性が能力に勝る定理 https://core.ac.uk/download/pdf/154931462.pdf
p.64
・ホン=ペイジの定理
・多様な認知モデル、認知モデルの複雑さ、問題と解決についての合意、協働、他者の知識の活用、などの条件がある。
・ホン=ペイジの定理は数学的に誤っている(Tompson『Does Diversity Trump Ability?』)。
・専門家を画一的と仮定している。だが、無知なほど単純・素朴な認知モデルをもつ。:Page『The Difference』、Tetlock『Diversity Paradoxes』。
・定理はむしろ、投票者を限定することを擁護している。多数者は全員ではない。
ジェイソン・ブレナン著『アゲインスト・デモクラシー』要約|ラビットホール
集計の奇跡みたいな議論が当てはまるのは、平均することが可能なものに限られるのでは
多数決みたいなことをすれば離散量でもできるか
確率は?
やっぱり量の問題としてモデル化できる問題に限られる話を一般化するのはあやしいんじゃない?
回答形式が多次元ベクトルとかの場合はどうなんだろう
成分ごとに集計の奇跡を適用すれば問題ないのでは
素人が自分で考えた結果は似通っているみたいなことを言うけど、それは独立していないことを意味するのか、それともプロセスとして独立してはいるけど結果が似通っているのか (そんなことはすごい偶然の一致以外で、ありえるのか?)
人間に共通の思考傾向?
「素人が自分で考えた結果は似通っていてオリジナリティがない」というのは専門家に近い側が言ってるがちな気がするので、外集団同質性バイアスの可能性がある?
独立な過程で生産された結果を得るためには、複数の国や時代、分野の文献を読むなどの方法もある。自分の頭で考える場合は1人しか得られない (そういう人が複数いれば何人も得られるか) けれど、その方法ではもっと多くの独立のソースが得られる。
時代が違ったほうがより独立性は高そう
Jonathan Matheson "Why Think for Yourself?"は、専門家自身が個々独立に考えることには社会的な知識を向上させる価値があるけれど、素人が考えたところで社会的な知識を向上させるという価値はないだろう、と言っている。
物理学とかだったら明確にそうだろうね
みんなが常識に頼ったら大変なことになる。常識に頼った方が平均的には正確でも、自分で考えないのは社会の知識へのフリーライド (これは上で言っていることと本質的に同じでは?)
「これはみんなが食べ物を自分で作らずに他人から買ったら誰も食べ物を買えなくなる。自分で食べ物を作らないのは社会の食料生産へのフリーライド。だからみんな自給自足すべき」と同じ構造なのでは
素朴に普遍化可能性を考えると、分業を否定する結論になる
「みんなが自分で考える」の反対は、「みんなが他人に頼る」のではなく、「詳しい人は自分で考え、その他の人はそれに頼る」なのでは?
「みんなが自分の専門について自分で考え、自分が詳しくない事柄については詳しい人に頼る」というのは全員が行っても問題が発生しなそう?
文化進化を考えれば、別に大変なことにはならなくて、むしろいい結果になるかもしれない。ここで常識に頼ることは、遺伝子の忠実な複製と同じことをしている。ものすごい長期的なレベルで全体として見れば、みんなが真似しかしてなくても、良い慣習を持った共同体が繁栄するという進化が生じる。
Book Review: The Secret Of Our Success | Slate Star Codex
REPOST Epistemic Learned Helplessness | Slate Star Codex
List Of Passages I Highlighted In My Copy Of “The Secret Of Our Success” | Slate Star Codex
Asymmetric Weapons Gone Bad | Slate Star Codex
Chesterton's fense
繁栄につながる信念が必ずしも真理という意味で正しい信念なのかは明らかではないのでは
スティッチ:「理性の自然選択」説の困難 - まとまり日記
理性をモデル化する - まとまり日記
たとえば「集団に協力しない人は地獄に行く」というおそらく偽の信念を思い込んだ集団のほうが繁栄するということはあるかもしれない
vs.常識なのかvs. 専門家 なのかvs.伝統 なのか
循環の発生。みんなが信じているからみんなが信じている状態。
AさんはBさんが信じているという理由で信じており、BさんはAさんが信じているという理由で信じてる
車輪の再発明は独立に至ればより強固になるという意味ではいいことなのでしょうか?
巨人の肩の上に立つ
リカードの比較優位と分業の利益。
「AならばB」「BならばC」といった複数の人々の知識を組み合わせて協力
Streetlight effect - Wikipedia。他人の間違いは気づきやすいが、自分の間違いは人からフィードバックをもらわない限り気づかない。
ある思考過程の主が自分であるか、他人であるかということは、指標的な性質に過ぎない。ならなぜ、それが重要なのか。
わたしayu-mushi.iconが自分の頭で考えるべきかどうかはayu-mushi.iconの性質によるので、他の人が自分の頭で考えるべきかという問いにあまり関係ないのではないか。たとえばいくつか関連する問題を解いてみて、成績が良ければ自分の頭で考えるといいかもしれない。
指標的でない基準でも、誰かには自分の頭で考えろということになる。たとえば、教皇の言うことを全員受け入れろというのも、教皇自身は自分で考えることになる。(伝統を受け入れろの場合は、死んだ人しか自分の頭で考えないかもしれないけど)
他人への知識の伝達を考慮に入れない認識論は、誰を信頼するべきかという問いを迂回するが、我々の認識のほとんどが他者に依存してることを考えれば、なにか重要なことを見落としているのではないか。
The Signaling Trilemma - LessWrong
自分で考える能力を鍛えておくことは将来自分の問題に取り組むために重要。繰り返し実際に行うことで訓練をするべき
→「他人から学ぶ能力を鍛えておくことは将来自分の問題に取り組むために重要。繰り返し実際に行うことで訓練をするべき」
読書猿氏のように他人から学ぶ能力が極めて高くなったらたぶん将来役に立つだろう
これは自分の問題が、今まで人類が直面したことがないような新しいものや、自分や自分に関連する対象に特有のものなのか、それとも累積があるものなのか、によって違う
まずは自分で考えて、その後に他の人の意見を見て比較するというのはどうか
演習問題を解くのと同じようなかんじ
これは自分で考えることには教育的・学習上の価値があるという話だね
理解の助けになる
自分で考えることの教育上・学習上の価値を得たいだけなら、その考えた結果の意見を実際に採用する必要はない by Thinkers Must Be Heretics - by Robin Hanson
実際に採用しないと分かっていると、真剣に考えようとする気にならない という問題がありそう
ZFCの公理 / ペアノの公理 / 群の公理を知ってるからといってあとは自分で考えよう とはならない
群の公理から単位元の一意性を自分で導いてみよう、くらいはやる
これは自分が怠惰なだけで、本当はもっとやったほうがよさそう
その判断を基にすべき他者として、認知的に優れた者や、多い方がある。
専門家への訴え。
誰が頼るべき人かを知るためには、ある程度自分で考えないといけないのでは
Is Critical Thinking Epistemically Responsible?
→「誰が頼るべき詳しい人か」についてのクリティカルシンキングは、一階のクリティカルシンキングよりかんたん
哲学の場合は、誰が権威かについてかなり議論の余地がありそう (誰が expert かについての meta-expertise がかんたんではない)
まず、分析系、大陸系、哲学史、などとあるし。
Jonathan Matheson "Why Think for Yourself?"
cognitive island
関連する専門家を同定するための外的基準 (学位を持ってるとか、その分野についていっぱい論文・本を書いてるとか、何らかの課題の成績がいいとか、予測を当ててきているとか) が使えない場合、自分自身が専門家になるしか専門家を同定する方法がないということがありえる
meta-expertiseに長けた人というのはいる。Scott Alexanderとか:
Beware The Man Of One Study | Slate Star Codex
Debunked And Well-Refuted | Slate Star Codex
「ある人にexpertiseがあればmeta-expertiseもある」というのは成り立たないの
論文を書いているような一般的な expert には meta-expertise もあるけれど、稀な例で他人の意見をサーベイしたりはできないけれど、自分で実験とか計算はめっちゃできるという人もいるかもしれない
Me vs Huemer - David Friedman’s Substack
専門家同士の論争を見て評価するという方法のほうが、単に専門家のコンセンサスに従うより良いという議論
素人が自分で考えて信念を形成する事自体は正しいが、それを共有することは (一般に質が低いので) 良くないということも考えられる?
一般に質が低いなら、自分で考えて信念を形成する時点で無意味では
知能が高い人や、その他 認識的に望ましい性質 (統計の見方がわかっている、オープンマインドなど) を備えた人、経験のある人、などの判断に基づく場合もある。
多数への訴え。
お互いに独立であるかどうかを考慮するべき。独立でなくても、多数に意味がなくなるわけではないけれど。
利害の対立
利害の対立は他の種類のバイアスと同じではないのか。→自分自身と利害が対立することはないので、利害の対立要因は常に自分で考える側が良いという方向に向けることになる。
認知バイアスについては自分と他人で自分のほうが認知バイアスが少ないとは言えない (もし現にそうだとしてもそうであるということを知るのは困難) ので、そういうことは言えない。
誰かが提案した議論に穴があるか複数の人で検証すること
これは複数の人が独立に行ったほうが堅固
これは他人のことを鵜呑みにするのではなくちゃんと検証することの理由にはなる。(自分で考えるということの利点になる)
一方、自分の思いつきは複数の他人からの検証がないので信頼できないという理由にもなる。(自分で考えることの欠点にもなりうる)
視覚について、遠くのものや、光の状態が通常ではない場合や、もやがかかっている状態などではふだんより疑ったほうがいいのと同じように、他人の (表明された) 意見についても、社会的要因が悪く働くような典型的状況では疑ったほうがいい
これはそもそも他人の信念が明らかでない場合?
他人の信念を根拠にするのはいいが、その信念自体がなんなのかについて誤ってしまうケースがある。
それに比べて自分の思考の過程は分かるので、自分の頭で考えることの優位性につながる
仮に自分の思考でも、直観がどういう過程で生成されてるかなんてわからないっていうツッコミがありえるかも
多元的無知 - Wikipedia
Social Censorship: The First Offender Model | Slate Star Codex
Social-desirability bias - Wikipedia
共有知識
バイアス。
単に認知プロセスに社会的バイアスがあるというだけなら、自分にも同じくらいバイアスがあるかもしれないので特に自分で考えることの優位性にはつながらない。一方、そもそも他人の信念を知る段階での社会的な歪みの存在は、自分の頭で考えることが相対的に有利になる要因になる。
たとえば、わざわざその問題について語ろうとする人に偏りがある (selection bias) 場合
この偏りは良い偏りのこともある。たとえば自信がある人だけが口を開き、自信がおおむね実際の知識量と対応している場合。
正直に自分の考えを表明することをさまたげる社会的状況要因が働いていると推測できるが、発言以外のルートから他人の意見を参照する場合には信頼できるということもありえる
みんなあの音楽家がいいと言うけど、実際の視聴行動を見ると別の人のほうが視聴されているので、後者の方を参考にする、というような仕方で他人の信念を間接的に参照し、それを根拠に自分の信念を形成するケース
中東の今後を予想するために、石油の先物商品の価格を見るというのは、先物取引をしているみんなが持つ中東についての信念を間接的に参照して、それを根拠に (その信念の理由を自分で独立にチェックすることなしに) 中東の今後についての自分の信念を形成している (中東の未来そのものが先物商品の価格に影響を及ぼすわけではなく、それに対する人々の予想が価格に反映されてる)
https://www.youtube.com/watch?v=jYLgRo8upO0&list=PL-uRhZ_p-BM7PP8mtm1WPr0zui_JuMJqM&index=7
事故物件の値段が上がるのは、幽霊が居るかどうかではなく、幽霊が居るかどうかに関する人々の信念を反映してる
おおっぴらには言わないけれど、匿名のアンケートでは多数に賛同されている考えとか
How Taboos Affect Science - Aporia
予測市場
予測市場をもとに信念を形成することは、完全に権威に訴える論証の一種だ (人々がそれを信じている、という以上の根拠がない。ただし、予測市場の場合は、人はそれについて賭けているのだから、本当に信じていると考えられる点が違う。あと、今まで実績がある人の信念である場合が多い。)
中国共産党の支持率を調べるさいに、それに関する項目について直接答えさせるのではなく、いくつか関係ない項目と混ぜ、いくつの項目に同意するかだけを答えさせる
List Experiments - Dimewiki
信頼する同士の1対1の会話
このような手段が使える場合、自分の頭で考えることが、他人の信念を知ることそのものの難しさという理由から優位になるわけではない
最初に口を開いた人に対しなんとなく不同意するのが気が引けるのでみんな異論を言わない (そして異論がないのでみんなそう思ってるのかな?と思ってしまう) みたいな場合
アッシュの同調実験
アッシュの同調実験は人間がそこまで同調的であることを示してるわけじゃないという話もある: The Vast Emptiness of Social Psychology - Cremieux Recueil
状況による違い
自分の生活に関係することについて自分で考える度合いと、一般的知識について自分で考える度合いではどちらが多いか?
実際的に偽な信念のコストを被る可能性が低い状況では、無責任に自分の楽しみのために「自分で考える」だけで、自分自身が信念にもとづいて行動しコストを被る状況では権威ある他人の信念に依拠する人が多いのではないか
逆のケースもありえる
上のScott Sumnerの話だと hypocrite なわけではない
コスト
自分で考えることのコストと、他人の意見を調べるコストの比較。
個人差
一般知能。かなり頭がいい人にとっては「自分の頭で考える」というのはいいアドバイスかもしれない。一般的に妥当するアドバイスではない。
パッションが強い人なら自分の頭で考えることは自分のパッションで考えることになるし、直観的な人、理屈っぽい人など、アドバイスの対象によって違い、一般化できないところがある
専門家が自分の頭で考えるというのと、素人が自分の頭で考えるというのにも違いがある
頼る他人がどのような種類の他人かということにもよる
そもそも自分の頭で考えるというときに指しているのはどういうこと?
観測はアウトソースしてもいいけど、思考は自分でするか、他人の議論でも実際に内容を追うって感じか
計算
実験
統計を取る/見る
観察
一次資料
認識的分業 vs. 認識的自給自足
認識的保護貿易 (日本特有の知的伝統などを作る。)
認識論的内在主義、証言に関する還元主義
関連リンク:
Epistemic deference - EA Forum
MichaelA "Collection of discussions of epistemic modesty, "rationalist/EA exceptionalism", and similar"
Thinkers Must Be Heretics - by Robin Hanson
One Cheer for Social Conformity - by Michael Huemer
アッシュの同調実験は不合理ではない。他の3人が同時に見間違う確率より、自分が見間違えている確率のほうが高い。それが自分の見えだからと言って、認識論的に特別な地位があるわけではない。
Tackling Tetlock - by Bryan Caplan - Bet On It
Why don't we like arguments from authority? | bayes.net
Intellectual Authority and Its Discontents - Sam Harris
あまり読んでない関連文献リスト:
Finnur Dellsén "The Epistemic Value of Expert Autonomy"
Nathan Ballantyne "Epistemic Trespassing"
Ilya Somin "A Qualified Defense of Qualified Conformism"
Oliver Traldi "Political Beliefs: A Philosophical Introduction - 1st Edition - Oliver"
Amazon | Why It's OK Not to Think for Yourself | Matheson, Jonathan | Philosophy
Inadequate Equilibria - LessWrong
modest epistemology
https://kozakashiku.hatenablog.com/entry/2022/11/06/095112#f-1e961420
ayu-mushi.icon他人の信念を単に信じられているという理由でーー仮に根拠が示されていなかったとしてもーー鵜呑みにすること自体は不合理ではない場合がある。これは重要なことだ。しかし、だからといって信念に対する同調圧力・スティグマ化が合理的というのは嘘な気がする
「自分の頭で考える」vs.同調圧力・スティグマ という二分法が成立するわけではない気がする (成立すると明示的に書いているわけではないけど)
アッシュの同調実験のようにいっけん同調圧力に見えるものが実は合理的に説明できるということはあると思うけど
同調圧力だけどたまたま合理的な場合と同じ結論になってるだけかも
同調圧力、スティグマ化の結果というのは、多数派の信念がたまたま真だった場合には、真な信念を持っている人が増える、というだけでは
周囲に陰謀論者が多い場合は、陰謀論を信じるという同調圧力が働くだろう
正確には多数の側がスティグマ化されることもありえるけど: Social Censorship: The First Offender Model | Slate Star Codex
自分の信念に自信がない人は異論を排除しない気がするので完全に対称ではない
でもあの人はトンデモに対して情報としてあの人はトンデモだよっていう情報を与える以上にさらに馬鹿にすることが (それを見ている第三者に対して) 有用なケースとかもあるんじゃない
それは目的を達成するために言論の自由を侵害することが短期的に有用な場合 (誤まった医療情報を検閲する) もあるのと同じくらいの話で普遍化可能ではないのでは
個々の誤りを指摘するだけでなく「この人は全般的に耳を傾けるべきではない」ラベリングは有益でありえる
ひろゆきに対する批判に対し、このように専門家からの指摘を見れば訂正されるのだからひろゆきを見続けることには問題ないみたいなコメントがあったけど、全部指摘できるわけがない (できるとしてもそんなことは時間の無駄) のであまり合理的ではないと思った
ロビン・ハンソンの博論にあるように、誰かがなにかを禁じようとするとしているということから、危険性についての特有な情報を得られるというのと似たりくつが働いている可能性 (自国では医薬品を規制していないけれど他国の規制状況は見れる、という状況が一番得かもしれない)
何かが馬鹿にすることで、淡々とした「この人の言っていることは不正確で、信用しないほうがいい」とは違う特有の情報 (取り合う価値もないというような) を伝達できるのかもしれない
声を荒げることで、本気だと分かる、というような
他人から学ぶことができるというのの一例として、そういう暗黙的な信念からも学ぶことはあるはずで、そういうものを累積していくことは重要でありえる
悪口を言ったり馬鹿にすることは asymmetric weapon ではない Guided By The Beauty Of Our Weapons | Slate Star Codex
asymmetric weapon でなくても defensive には使うべきでは
スティグマ化は自分の信念を表現し他人に伝達する仕方の一種ではあるだろうけれど、他の仕方で表現したほうがいいのでは
偽な信念がセルフコントロールの欠如と類比できるようなものから生じているわけではないと思うし
では推論方法に対するスティグマ化はどうでしょうか。後件肯定を使うと馬鹿にされる、というような。
多数派の信念を採用するというのも信念形成方法で、それなりのヒューリスティックではあるけど
それはあるていど正しいヒューリスティックなので、「牛は動物だ」ということを信じない人に対し解雇などの圧力をかけた場合に真なる信念を持つ人が増えるのと同じ意味で真なることを信じる人を増やすという目的を最大化する行為ではあるのでは
それを使って圧力をかけてるうちに多数派の信念を採用するというヒューリスティックが機能しなくなっていくけど