「LLMは嘘をつくから信用できない」
内容の真実性の検証
「LLMは嘘をつくから信用できない」という言説がある
GPT3.5あたりまでは強く同意して、GPT-4ぐらいまでは私もそう思っていた
すると、私にとっての情報ソースとしては、十分有用と言える
ググった記事はトピックによっては明確なノイズがとても多いし、そうでなくても真実性はよくわからない、不十分なことが多い
友人から聞いた言葉に、情報としての信頼性は大抵の場合ない。期待もしていない
LLMはそれっぽいことを言うし、内容に疑問を出したらソースを表示されることも可能である
モノの商品レビューならYouTubeで実際のモノを使った方が、その範囲の中で正確だ
結局、正確性の評価を自分ができるのかという大きな問題があるが、ここを議論する人が少ない(?)
畢竟人間は、参照点が自分でしかあり得ない
他の方法で参照点を作ることもできるが、権威主義などの弊害をもたらす点で明確に優れているとは言い難い 純粋に論理的な対話が有益なのは明らか