ハルシネーション対策
大規模言語モデルの「幻覚」を軽減する32の最新テクニック バングラデシュなどの研究者らが発表
LLMs Will Always Hallucinate, and We Need to Live With This
幻覚が LLM の基本的な数学的および論理的構造に由来することを実証します。よって、アーキテクチャの改善、データセットの強化、またはファクトチェックメカニズムによる排除は不可能です
Survey of Hallucination in Natural Language Generation
ファクトチェック と Hallucination 検出を行う NeMo Guardrailsによる Grounding Rail