Backstep Prompting
LLMが結論に至るまでの思考プロセスを一度「後退」させ、その過程を自己評価・修正させる手法
単に答えを尋ねるのではなく、「その答えを導き出すために、どのような情報や前提が必要だったか?」を問い直すことで、より信頼性の高い結論を導き出す
主な目的と効果:
推論の正確性向上: 結論に至るまでの論理的なステップを検証させることで、誤った推論や情報の欠落をモデル自身に気づかせ、修正を促します。
ハルシネーション(幻覚)の抑制: 不確かな情報や事実に基づかない回答を生成してしまう「ハルシネーション」を、根拠を問い直すことで抑制する効果が期待できます。
思考プロセスの透明化: モデルがどのような手順で結論に至ったのかが明確になるため、出力の信頼性を評価しやすくなります。
AIと『対話しない』対話法、モノローグ法 #ChatGPT - Qiita
#AI