GPTの出力をScrapboxに書き込むことが増えた
gpt.icon最近、GPTの出力をScrapboxに書き込むことが増えた理由について考察している。
エンジニアリングの観点から、コマンド実行によるエラーは「観測事実」であるが、その原因についての推測は根本的に正しい保証がないため、人間が書いたものもAIが書いたものも同じ価値を持つと考える。
日本文化や哲学概念の解説、記事の感想、単語の解説をAIに書かせるようになった。これらの内容は事実と解釈の混在であり、解釈の正しさは主観的であるため、AIが生成した内容が違和感なく受け入れられる場合と、自分の考えと異なる部分を修正したものは、人間が書いたものと同等の価値を持つと判断している。 最近GPTの出力をScrapboxに書くことが増えてきた
なぜそうなったのかを考える
エンジニアとして、あるコマンドを実行したらエラーが出たとき、それは「観測事実」
それを見て「きっとこれが原因」と言ったのは解釈
解釈は根本的に正しい保証がないんだから、人間が書いてようがAIが書いてようが同じこと
AIに英語で日本文化解説を書かせ始めた
解説には事実と解釈がある
具体的事実の摘示以外は全部解釈
ネイティブ日本人の僕が読んで違和感のない解説なら、AIが書こうが僕が直接書こうが僕が書いたのと遜色ない正しさなので同じこと
哲学概念の解説もAIに書かせ始めた
哲学において「誰が何の本でどう書いた」は事実
書いている内容自体はその哲学者の世界観であり解釈
世界解釈に正しさなどない、なのであれば哲学者が書いたものもAIが書いたものも同じことなのでは?
思考の解像度を上げるためのボキャブラリーの獲得としてはAIにガンガン生成させて知識のネットワークを作った方が有益ではないか?
何かの記事を読んだ時の感想もAIに書かせ始めた
感想は事実ではないので正しさなどない
僕の考えと違わないことが出力されたなら僕が書いたのと同じこと
違うことが書かれたら「違うと思う」と書き足せば良い
単語の解説も書かせ始めた
今までは空欄にしてたり、Wikipediaから引用したりしていた
その単語にどのような意味を見出すのかは主観的なことなので、生成した内容を僕が見て違和感がないなら「僕がその単語をどのような意味で使っているか」の説明としては問題ない
僕が書いたのと同じこと