マエカワの備忘録的な何か

思い立ったが吉日

情報通信システム 其の七 20170601

結合エントロピー

 A=\{a_1,...,a_M\} B=\{b_1,...,b_N\}の結合確立を p(a_i,b_j)とするとき、 A B結合エントロピー H(AB)

  \displaystyle H(AB)=-\sum_{i=0}^M\sum_{j=1}^N p(a_i,b_j)\log p(a_i,b_j)

で表される.これは、 A Bが同時に生起したときに得られる情報量.
また、

  H(AB)\le H(A)+H(B)

が成立する. A Bが独立しているとき、等号.

条件付きエントロピー

 \displaystyle b_jが生起したとき \displaystyle a_iが生起する確率を \displaystyle p(a_i|b_j)とすると、 \displaystyle Bが起こった時 \displaystyle Aが生起するときの条件付きエントロピー \displaystyle H(A|B)
  \displaystyle H(A|B)=-\sum_{i=0}^M\sum_{j=1}^N p(a_i,b_j)\log p(a_i|b_j)
で表すことができる. \displaystyle \logの中に入っていないのは結合確立になっていることに注意する.

ちょっくら導出をしましょうか…。

  \displaystyle H(A|B)=-\sum_{j=1}^N p(b_j)\left\{\sum_{i=0}^M p(a_i|b_j)\log p(a_i|b_j)\right\}

  \displaystyle p(a_i,b_j)=p(a_i|b_j)p(b_j)より

  \displaystyle H(A|B)=-\sum_{i=0}^M\sum_{j=1}^N p(a_i,b_j)\log p(a_i|b_j)

ベン図で書くと

  \displaystyle H(AB)=H(A|B)+H(B)=H(B|A)+H(A)

 \displaystyle H(A|B) \displaystyle Bを知った後 \displaystyle Aが起きた時に得られる情報量のため、 \displaystyle Bに入っている \displaystyle Aに関する情報以外の領域ということになる.
では、集合の分野でいう「 \displaystyle Aかつ \displaystyle B」のところはどのように表現できるのか? \displaystyle Bがわかった時に得られる \displaystyle Aの情報量ないしは \displaystyle Aがわかった時に得られる \displaystyle Bの情報量と表現することができる.この情報量のことを相互情報量と呼び、 \displaystyle I(A;B)(これは \displaystyle Bがわかった時に得られる \displaystyle Aの情報量)で表す.

  \displaystyle I(A;B)=I(B;A)=H(B)-H(B|A)=H(A)-H(A|B)

(ベン図はあとで載せます)

問題3.4(あとで回答を載せます)


f:id:maekawa_yoshimiki_1119:20170624142158j:plain


ゆっくり考えたらわかった!!やっぱり確率計算苦手です…。

相互情報量についてもうちょい( i,j省略してます)

  \displaystyle \begin{eqnarray}I(A;B)&=&H(A)-H(A|B)\\&=&-\left(\sum p(a)\log p(a)-\sum\sum p(a,b)\log p(a|b)\right)\\&=&-\sum\sum\left( p(a)\log p(a)-p(a,b)\log \frac{p(a,b)}{p(b)}\right)\\&=&\sum\sum\left(p(a,b)\log \frac{p(a,b)}{p(b)}-p(a)\log p(a)\right)\\&=&\sum\sum\left(p(a,b)\log \frac{p(a,b)}{p(b)}-\frac{p(a,b)}{p(b|a)}\log p(a)\right)\end{eqnarray}

今、確率事象系 \displaystyle Bが起こった時に得られる \displaystyle Aの情報量なので、 \displaystyle Aに関係なく \displaystyle Bは必ず起こる前提になっている.したがって

  \displaystyle p(B|A)=1

なので、先ほどの式は

  \displaystyle \begin{eqnarray}I(A;B)&=&\sum\sum\left(p(a,b)\log \frac{p(a,b)}{p(b)}-\frac{p(a,b)}{p(b|a)}\log p(a)\right)\\&=&\sum\sum\left(p(a,b)\log\frac{p(a,b)}{p(b)}-p(a,b)\log p(a)\right)\\&=&\sum\sum\left( p(a,b)\log \frac{p(a,b)}{p(a)p(b)}\right)\end{eqnarray}

と、ここまで簡単にすることができる.
この相互情報量は第4章における通信路容量を求める際にダイレクトに必要になってくる.ネタバレすると、通信路容量 \displaystyle C

  \displaystyle C=\max_\vec{p}I(A;B)

で与えられる.
テストにも出るとのことなので、十分復習しておく