ハルシネーション対策
AI Security
LLM safety
AI safety
Prompt Engineering
大規模言語モデルの「幻覚」を軽減する32の最新テクニック バングラデシュなどの研究者らが発表
https://www.itmedia.co.jp/news/articles/2401/23/news048.html
https://x.com/tjmlab/status/1833363408030495044
LLMs Will Always Hallucinate, and We Need to Live With This
https://arxiv.org/abs/2409.05746
幻覚が LLM の基本的な数学的および論理的構造に由来することを実証します。よって、アーキテクチャの改善、データセットの強化、またはファクトチェックメカニズムによる排除は不可能です
Survey of Hallucination in Natural Language Generation
https://arxiv.org/pdf/2202.03629
ファクトチェック と Hallucination 検出を行う NeMo Guardrailsによる Grounding Rail
https://qiita.com/GushiSnow/items/2e96b5f6c828d0557d68