情報量
情報量 - Wikipedia
情報量(じょうほうりょう)や
エントロピー
(英:
entropy
)は、
情報理論
の概念で、あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度である。
それぞれのできごとの情報量だけでなく、それらのできごとの情報量の平均値も情報量と呼ぶ。両者を区別する場合には、前者を
選択情報量
(
自己エントロピー
とも)、後者を
平均情報量
(
エントロピー
とも)と呼ぶ。