期待値
確率変数を g(x)とすると、
$ E[g(X)] = \int{ g(x)P(x)dx}
条件付き期待値
E[X|Y]のような表記を見た時に、これはXについて期待値を取る形になるので、
Yが確率変数として残り、E[X|Y]は依然として確率変数である
条件付き期待値の性質
期待値の線形性
和の期待値は、期待値の和でいける。
確率変数に関係ない数値は、外出しできる。
分散(確率変数と平均の差の二乗と確率分布の期待値)は、二乗化されて、二乗で外出し。
----以下は昔の記述---
統計量の場合
上記のような、確率変数の場合はそのままだけど、統計量の場合は確率変数に項分けして計算。
期待値は一般用語でもあるし、確率の用語でもある。あまり齟齬が起きてるとは聞かないな。
確率用語での期待値で重要な点は、
推定量は標本から計算されるので、神様世界での期待値と比較してどうか?という話がある。 エントロピーも感じ?が似てる。
確率分布の値についての積和。分布の値とlog(分布の値)との積和。スカラーになる。
情報理論においてエントロピーは確率変数が持つ情報の量を表す尺度で、それゆえ情報量とも呼ばれる。
バイアスがない(不偏)。 これは、ある推計値が、推計対称の期待値と一致する性質があるときに使う。
I expect....というときは、社交ファクター分だけバイアスかかってそうだが、、、
-----------------
確率変数と確率(質量|密度)関数が分かれば、スカラー量を出せる
定義
ある母分布 分布が分かってる場合は、
$ E[X] P(X)が密度関数であれば、$ \int{xP(x)dx}。 質量関数であれば$ \sum{xPx(x)}
分散は、E [$ (x - u)^2 ] で、二乗和。共分散は、違う2種類の変数なので、$ E[ (x -u) ( y -v )]となる。
通常、離散値の場合は、どの変数値も同じ確率としてるので、確率をかけていることに気づかない。。つまづきポイント。
ただ
現実のデータから出発する場合、通常P(x)が分からない、母集団に関する情報はわからない。
なので、目の前の(標本空間からとった)サンプルから推定するということになる。
この時に、個々の値に注目するのではなく、集計した量に注目して、推定量を出す。 線形性 linearity of expectation
和の期待値は、期待値の和
定数倍の期待値は、期待値の定数倍
$ E(\sum{()})= \sum{(E())}
分散の場合はいろいろある。
不等式
参考
パスカルの賭け
神の存在を信じた場合、全体の期待値は「+∞」。神の存在を信じなければ、全体の期待値は「-∞」です。神の存在を信じた方が、信じない方よりも期待値がはるかに大きいことから、パスカルは神の存在を信じることが、十分理にかなったことだと思い、より信仰を強くしたわけです。
関数(利得*その確率) = 期待損失(利益) での意思決定は、ベイズ推定でもでてくる。事後分布を求めて、それに利得を積和して、意志決定する。 標本平均の分散、標本分散(これは確率変数)