情報量
情報の量
2種類ある多義語になってしまってる。
terms:
自己情報量
en: self-information
aka. information content, surprisal
aka. 情報量?自己エントロピー?
定義には、確率測度を使うモノと離散型確率変数を使うモノと 2種類ある。
平均情報量
aka. エントロピー
en: entropy
期待値で定義されるので、確率変数を前提としてる。
シャノンの情報量?
エントロピーは あり得た可能性の量に対応する。
性質
量なので quantity である。
unit がある。
unit of measure
どちらも log を使って定義されてるため、底によって quantity の unit と magnitude が変わる。
cf. unit of information
背景
どちらも基本的には離散的なコト(事象、event)しか あつかえない。
連続版への拡張をガンバってる人たちが いる。
unit の底 に対応する magnitude の定義
自己情報量
$ I_b(E) \coloneqq -\log_b(p(E))
E: 事象 (event)
p: 確率測度
b: 底
まだ確率変数を導入してない。
これは測度論的定義
$ I_{X,b}(x) ≔ -\log_b(f_X(x)) = -\log_b(p(X^{-1}(\{x\})))
確率変数版
型: $ I: \mathrm{cod}(X) \to \R = M \to \R
X: 離散型確率変数
型: $ X: Ω \to M
その値 x ∈ cod(X) = M
b: 底
f: 確率分布でなく PMF
p: もとの確率空間の確率測度
平均情報量
完全事象系の確率だけで定義する版がある。
全事象の分割と確率測度だけで定義することも。
ref. Entropy and Information Theory - Robert M. Gray - Google Books
確率変数↓(なにこれ)wint.icon #TODO
$ H(X) \coloneqq \mathbb{E}[I(X)] = \mathbb{E}[I_{X,b}(X)]
X: 離散型確率変数
型: $ Ω \to M
b: 底
I: 確率変数版の自己情報量の関数
型: $ H: (Ω \to M) \to \R
期待値なので、情報の単位は共通してる。
定義の前提
ある特定の確率空間で考えてる。
測度論的定義
確率空間 (Ω, Σ, μ) で考える。
event: A ∈ Σ
surprisal
def. $ σ_μ(A) ≔ -\ln(μ(A))
expected surprisal
def. $ h_μ(A) ≔ μ(A) \, σ_μ(A)
$ = μ(A) \cdot -\ln(μ(A)) = -\ln(μ(A)^{μ(A)}) = \ln(μ(A)^{-μ(A)})
下記の期待値の積和の個々の積に相当する。
μ-almost partition P の entropy
def. $ H_μ(P) ≔ Σ\{h_μ(A)\}_{A∈P}
where P is an almost partition of Ω s.t. $ μ(∪P) = 1, A≠B⇔μ(A∩B) = 0
μ-measurable almost-partition?
ja: 「μ-概分割」程度か?
cf. μ-概収束
ref. https://en.wikipedia.org/wiki/Entropy_(information_theory)#Measure_theory
一般化
微分エントロピー
連続型確率変数に対応する拡張版
$ H(X) \coloneqq \mathbb{E}[I(X)] = \mathbb{E}[-\log_b f(X)]
X: 連続型確率変数
f: PDF of X
b: 底
可測空間とσ-加法族のエントロピー
supremum で定義する。
標準規格
JIS でも定義されてる。
事象系とかいうマイナー概念を使ってる。 #要出典
ref.
Entropy (information theory) - Wikipedia
拡張版 https://en.wikipedia.org/wiki/Entropy_(information_theory)#Entropy_for_continuous_random_variables
https://ncatlab.org/nlab/show/entropy
μ-almost partition や measurable almost-partition でも定義できるらしい。
Information content - Wikipedia
情報量 - Wikipedia
情報量の意味と対数関数を使う理由 | 高校数学の美しい物語
#情報理論