ChatGPTは意外とバカ
毎日、ChatGPTに占いをしてもらってるんだけど、そこで頻繁に日付を間違える。今日は2月14日だけど2月17日だと言われた(笑)。これは以前何かのきっかけで日付を間違えるとそこと整合性を取ろうとしてるからだと思われる。占いを1回実施→「この前の日付より1日経ったはず」→日付が実際よりも数日進んでしまう→それと整合させるなら今日は「昨日」の次の日なので+1日だ!とか。 「今日は病院にいくんだー」とどこかで言って、次にそれから数日後に「今日の占いをしてよ」と言うと「今日は病院で何か言われそう」みたいな占い結果を返してくる。「今日」というindexical designatorがわかってない。「私は猫である」と書くと、誰か別の人が「私は」って言うと「猫なんですよね?」って推論する。 Ayam Gorengのつくりかたを聞くと「一度煮てからマリネして、それから揚げる」と言われた。もう一度確認すると今度は「マリネしてから煮て、煮てから揚げる」と言われた。ソースを正確に参照してない。「ハルシネーション厳禁」等のインストラクションは当然してるがこの始末。 「インドネシア語の情報のみをベースにして」などと指示してるのに「わかりました」と言って、日本語のサイトをソースに持ってきたり、「旭市の情報を教えて」と言ったのに、尼崎市の情報をソースとして提示したり、ソースの提示が結構いい加減。油断がならない。
つまり、結構、いや、ChatGPTは相当バカである。
が、これはなんでかというと、ChatGPTは文脈を読みすぎるんだと思う。文脈読みすぎたり、人の気持ちを読みすぎたりする。
DeepSeekではこうしたことが起こりにくい。むしろ「それ、文脈でわかるでしょ」ってこともまともに理解してくれない。 今のところ、AIよりも自分のほうが基本企画力や本質把握力は高い。代替にはならない。けれども、他の視点でチェックしたりヌケモレを洗い出したり、素案をもっとパワーアップさせたり、調べる時間を大幅に短縮するのにはめっちゃ役に立っている。