理解は仮説なので誤っても良い
「理解は仮説」なので「行動によって検証」しなければならない
逆にいえば検証される前の「理解」は「誤っている可能性のあるもの」なので、誤っていてもよい
正しいことが書かれた良い教科書を読んでも、読者の理解が及ばずに誤った解釈をするかもしれない
この理解獲得プロセスは「誤りを許容できるプロセス」なのでLLMなどの「誤りのあるアルゴリズム」を使うことができる
この点で「LLMは正しくない答えを返すことがあるじゃないか」という批判は筋違いといえる
機械学習の産業応用と同じで、正しく答える確率が100%でなくても、得られる価値の期待値が従来手法を上回るなら有用である