生成AIは出力した回答のどの部分が事実であるかが重要なのかをわかっていない
真実、事実、嘘などの概念を理解していない
次に来そうな単語を予測しているだけ
情報の正確さ、偏り、矛盾も学習した結果が反映されているだけ
もっともらしさを優先する
人間が書いたようにもっともらしいテキストを生成することを目標としている
回答に含まれる情報の区別を自律的に行えない
機能として持っていない
この認知機能の有無をどう解決するんだろう?
今のところ力押しで精度を上げるくらいしかやっていない
推論で補助
推論部分を強化していけば克服に近いところまでいけるのかな?