同時エントロピー
X, Yという2つの情報源がある時その同時分布に対するエントロピーのこと
定義
$ H(X \cap Y) = - \sum_{i=1}^I\sum_{j=1}^JP(x_i\cap y_j)\log{P(x_i\cap y_j)}
条件付きエントロピー