理解は仮説なので誤っても良い
「
理解は仮説
」なので「
行動によって検証
」しなければならない
逆にいえば検証される前の「
理解
」は「誤っている可能性のあるもの」なので、誤っていてもよい
正しいことが書かれた良い教科書を読んでも、読者の理解が及ばずに誤った解釈をするかもしれない
この
理解獲得プロセス
は「
誤りを許容できるプロセス
」なので
LLM
などの「
誤りのあるアルゴリズム
」を使うことができる
この点で「LLMは正しくない答えを返すことがあるじゃないか」という批判は筋違いといえる
機械学習の産業応用
と同じで、正しく答える確率が100%でなくても、得られる価値の期待値が従来手法を上回るなら
有用
である