人間が全くの間違った知識を開陳してくるのは許せるがAIのそれは許せない
ずっと思い出せない作者とタイトルがあって、あらすじはほぼすべて覚えているしディテールも覚えている箇所がけっこうあるから、LLMに聞いてみた
のだけど、まったく違うタイトルを出してきた。
このあらすじをもつのはこのタイトルです、と言ってきたのだが、自分でググってみたらまったく違った。
参考文献やソースを出してくださいと言ったが、出さない。
↑これが非常に苛々した。
人間のそれは、じつはあまり気にならない。それほど腹がたたない。
なぜだろう。
人は、自分にたいしてなにかポジティブな目的をもって何かいってるというところがあったうえでそうしているという動機がある。 そこが重要だと思う
かならずしもポジティブではないのかもしれないけど、まあたとえば「kana.iconに好かれたい」とかがあったり、あるいは「kana.iconの役に立ちたい、助けたい」というのがあるんだろう
この場合だと、kana.iconが悩んでいるから、助けたい。というのがあって、人は調べてくれたり、「これじゃない?」というのを出してくれる。
その心意気を買いたい。
AIには動機がない。
そもそも人には根本的には最初から正確性を求めていないというのもありそうだ。
人間の記憶が曖昧なのも、調べてから話す人が少数なのもわかる。
もちろん、人相手でも、正確性を求めて尋ねたのに参考文献もあげず適当なことをいわれたら、腹がたつだろう。
たとえば、何かの専門家がいて、その専門家に質問をする際は、ある程度の情報の専門性を求めている
にもかかわらず、テキトウなことを調べもせず言われてソースも明示してくれなかったらまあ腹がたつはず