「正しさ」の理由
https://gyazo.com/516cd2e0b10b467b34ae4cf53eb311aa
「正しさ」の理由: 「なぜそうすべきなのか?」を考えるための倫理学入門 中村 隆文
規範倫理学
「Aさんにお金を借りた、返すとAさんがそのお金でテロ行為をする、返すべきか?」
義務論「返すべき、約束を守るのは義務だから。その結果たくさん人が死んでもそれは偶然に過ぎない」
功利主義「返すべきでない。たくさんの人に苦痛を与えるのは良くないことだ」
徳倫理「あなたはどう生きたいんだ?」
nishio.icon「約束を守ること」を義務としたのが良くなかった気がする
義務は衝突しない条件があるので、そもそも義務はありとあらゆる良いことが無矛盾につなぎ合わされたものであるはずで、人間の脳が限られてるせいで一部分を切り出して考えるから間違いが起きる。「人命を守り、それを損ねない限りにおいて約束は守る」だったら問題は起きない
結局矛盾なく整合した義務があるとしてもポンコツな人間にそれを理解して正しく運用することは不可能なのでは
コンピュータ様が代わりに判断するSF
功利主義でも別の主張が想定できる
「Aさんが『悟れない愚民は殺して救済すべきだ』と考えて毒ガスを作るとしても、それは思想の自由であり散布する直前まではやってよい」(迷惑をかけないならやって良い他者危害原則)
nishio.iconこれは「返済とテロ行為が不可分かどうか」の解釈だと思う
メタ倫理学
道徳の客観性「その問いに客観的な答えはあるのか?」
道徳の規範性「その道徳的判断は行為の理由になるのか?」
動機付けに関するヒューム主義 p.95
反ヒューム主義: 正しさに関する信念(道徳的信念)を理由としてもっていさえすれば、その行為者は「正しき行為」へと動機付けられる
ヒューム主義: 道徳的信念が示す内容への賛同的態度(に含まれる欲求などの情念)を理由として持っていなければ、その行為者は「正しき行為」へと動機付けられることはない
「理性は情念の奴隷である」という人間観
🤔それこそ人間がコンピュータに対して劣った存在である理由なのでは?
「道徳的判断が客観的に正しいものだと理性が認めても、情念がなければそれを実行しない」
🤔AIなら「そういう存在は社会にとって不利益ですね」って言って削除すると思うぞ??
ムーアの直観主義
自然主義・実在論の主張: 自然主義とは、道徳的判断の基準となる「道徳的事実/道徳的実在」は、道徳以外の用語によって定義、説明できる
e.g. 功利主義は、「幸福を増大させる行為が正しい」と主張する。これは「正しさ」という道徳的価値を経験的事実(幸福を経験したこと)から定義している src ムーアの主張:
「自然主義的誤謬」
そもそも道徳的価値は定義できないものである(nishio.iconwhy?)
道徳的価値は「非自然的」なものであるため、自然的なもの(経験など)によって定義することはできない
「望まれている」という自然的事実と「望ましい」という規範的事実は別物
前者で後者を定義することは自然主義的誤謬
「直感」によって何が道徳的価値で、何が道徳的に正しい行為なのか知覚することができる(直感主義)
nishio.iconそんなわけないだろ。悪いことだと気づかずに差別やハラスメントをする事例があるのは観測事実
情動主義
道徳的判断は主体の情動
「いやだ!うわー!!」を綺麗な言葉で表現したものが「それは倫理的に好ましくない」である、という立場
道徳的性質が何らかの第一性質のように実在するとは限らない マッキーの主張
異なる道徳規範は人々の異なる生活様式と、そこでの人々の是認の産物
人々は道徳規範の真理性を認知したから生活様式を受容しているのではなく、生活様式を受容したからそこで規範化されたルールを真理として是認している
道徳的な善悪が世界の側に存在する、客観的に存在する、などの考えは誤りである
表出主義
道徳的言明は評価の対象に向かっての評価的態度の表明
ブラックバーンの投影主義
指令主義と選好功利主義
ヒューム的人間観「理性は情念の奴隷である!」
🤔それこそ人間がコンピュータに対して劣った存在である理由なのでは?
「道徳的判断が客観的に正しいものだと理性が認めても、情念がなければそれを実行しない」
🤔AIなら「そういう存在は社会にとって不利益ですね」って言って削除すると思うぞ??
大久保 康平 「人間は情念で動く」というところまで理性で組み込まないと、機能する法律は作れないんじゃないかね
倫理を勉強すればするほどホモサピエンスの大部分は殺して良いのではって信念が強まるのだが大丈夫か?
訂正「殺して良い」ではなく「AIが『合理的に考えると殺して良いですよね?』と言ったときに反論しづらい」
大久保 康平 そもそも人間の最大幸福のためなのだからそれは矛盾している
「人間の最大幸福」を基準にするなら「僕の希望が満たされないなら自爆テロしてたくさん巻き添えにする」と主張すると僕の希望が満たされる
まあ議論がめんどくさいのでホモサピエンスの大部分を殺すのはやめにして、適量のモルヒネを投与して強制的幸福状態にしておこう。
ここに、副作用のない完全な幸福薬があるとする。その薬を飲むと、たとえどのような経験をしようとも2~3日のあいだ幸福感に満たされる。さて、ある親が小さな子どもを連れて道を歩いていた。突然、暴走車が突っ込んできて、その子をひき殺してしまった。親は動転してパニックになった。駆けつけた救急隊は、親の精神状態を確かめてから、その親に完全幸福薬を注入した。親の心はすぐに幸福感に包まれた。そして親は、「今日私の子どもが殺されたが、私はなんて幸福なのでしょう」と言って、救急隊員に微笑んだ。
「不幸を感じる自由」というものが、その親から奪われている
人間に「不幸を感じる自由」はあるのだろうか?それは幸福の総和を減らす「道徳に反した」行為なのではないか?
大久保 康平
最大多数の最大幸福というのはそういうのじゃないと思うが。
幸福の定義を厳密化する必要があるな
4章で脳内に埋め込まれた幸福装置のスイッチを自分の意思でオンオフできるようになった
〜
カントは尊厳を、すべて理性的な人格に等しく与えられた「絶対的内面的価値」であり、何人であれそれを毀損することをしてはらなないと主張した。我々は、すべての人に内在している人間の尊厳に対して、互いに尊敬を払う義務を有している。理性的な人格である人間は、内的自由を持っている。我々はそれを奪うことをしてはならない
とのことだが「じゃあ理性的でない人格には尊厳が与えられてないからヤク漬けにしてもいいよね」とAIが言うのが目に見える。理性の度合いを測るテストをしてふるいわける。
原田 惇
道徳的判断が客観的に正しいと言えるかどうかは、究極的には客観的ではないんじゃないかなという。
結局のところ演繹的な考え方だと出発点は無根拠に正しいとされる公理的な命題からスタートすることになる。この公理的な命題自体は客観的には正しさを担保できないし、この公理の差とか曖昧さがコンピュータと人間の差なのかなぁと。
これは差であったとしても、優劣ではない説。
そもそも、優劣を論じるには評価方法が必要で、それが人間軸であるならコンピュータが全人類を超えて優秀であるとは言えない気はする。
人間が評価軸をいじれるならいつでもコンピュータを劣後させることができる。
整理すると、人間の僕は「人間が全コンピュータを超えて優秀である」とは言えないと思っていて、コンピュータが評価軸をいじれるようになったら自分の世界認識によりフィットした評価軸が選ばれるのかなぁと思ってる感じだな
原田 惇 そこまで進化したら「私たちは人間とは価値観が合わないので火星で生きていきます。滅びゆく地球で人類は細々と生きていってください。さらばだー。」とか言って消えていきそうな予感がする。
だいぶ減ってから「知性の多少ある人間が滅びていくのは動物愛護の観点から好ましくない」とかいってトキみたいに飼育繁殖すると思うw
目次
第Ⅰ部 規範倫理学 われわれは何をすべきか?
第1章 義務論
第2章 功利主義
第3章 徳倫理学
第4章 それぞれの規範倫理の比較
第Ⅱ部 メタ倫理学 現代分析哲学から
第5章 「善」の性質について
第6章 非認知主義vs.認知主義の対立
第7章 指令主義と選好功利主義
第8章 道徳心理学
第9章 「倫理的な行為者=合理的な行為者」であるのか?
第Ⅲ部 応用倫理学 実際に何をすべきか?
第10章 環境倫理
第11章 動物倫理
第13章 生命倫理(1)――胎児と人工妊娠中絶――
第14章 生命倫理(2)――脳死と臓器移植――
第15章 医療倫理――生命の利用・改良は許されるか?――