Hallucination
https://en.m.wikipedia.org/wiki/Hallucination_(artificial_intelligence)
人工知能(AI) では、幻覚または人工幻覚(妄想と呼ばれることもあります) は、トレーニング データでは正当化されないように見える AI による自信のある反応です。たとえば、Teslaの収益を知らない幻覚チャットボットは、チャットボットがもっともらしいと見なす乱数 (「136 億ドル」など) を内部的に選択し、Tesla の収益は136 億ドル、この数字が自分の想像力の産物であるという内部認識の兆候はありません。
GPTは堂々と嘘をつく
https://www.marktechpost.com/2023/04/02/what-is-ai-hallucination-what-goes-wrong-with-ai-chatbots-how-to-spot-a-hallucinating-artificial-intelligence/AI Hallucinationはなぜ起こるのか?
AIが幻覚を見るのは、AIプログラムを欺くような入力データである「Adversarial examples」が原因です。
例えば、開発者はAIシステムを学習させるために画像やテキストなどのデータを使用しますが、データが変更されたり歪められたりすると、アプリケーションは入力を異なる方法で解釈し、誤った結果を出力します。
Seitaro Shinagawa(@sei_shinagawa)
このケースもハルシネーションと呼んで問題ないです。ハルシネーションは
Intrinsic Hallucination: 生成結果が事実に反する
Extrinsic Hallucination: 生成結果が条件付けにないものを出す
の2種類あるというイケてないポイントがあり、ExtrinsicではないがIntrinsic Hallucinationはあり得ます
松井健太郎 睡眠・精神医学 (Kentaro Matsui)(@matsuikentaro1)
「これはハルシネーションって呼ばない」っていっぱいつっこまれちゃった。…
> 松井健太郎 睡眠・精神医学 (Kentaro Matsui)(@matsuikentaro1)
> 【DeepResearchのハルシネーション】
> 大人気ないかなと思ってあえて言ってなかったですが、DeepResearchもハルシネーション起きます。
>
> 例:「医学論文の執筆において生成AIを使ってよいか、ガイドラインを各publisherごとにまとめて」ってDeepResearchで依頼した場合の回答。…
> https://gyazo.com/c991bd3671d52bd6b9384491f0abc9a0 https://gyazo.com/141f8be869503fb0206a81a762676436