マエカワの備忘録的な何か

思い立ったが吉日

コミュニケーション論 其の五 20170518

最初は今回と関係ない話(ちょっと関係ある)

 数分間、東日本大震災直後のACのコマーシャルを見た.

報道ステーションのトピック「原発、私はこう思う」

  養老孟司さんが出演していた回を見た.ここで養老さんは、「原発問題には中間の意見がない.(エネルギーに対しての)価値観が変わって社会が変わる.」と言っている.
  前回の最後に言及していた「原理主義ってどうなの?」という話とリンクする部分がある.「情報と法規」で扱っているような弁証法的考え方が、必要になってくるということだろう.
  少し話の中身は変わってしまうのだが、この前見ていたテレビで「豊洲移転問題」についての意見をぶつけ合う趣旨のものがあった.ここで誰かが「新幹線だって最初は信用されてなかったんですよ.運行開始から今まで無事故っていう事実が「安心安全」になる.」と言っていた.これは養老さんの言う「価値観が変わって社会が変わる」というものと関係ありそうだなぁと勝手ながら思いました.

「思う」と「考える」の違い

  平常点レポートの文章の大半が「思う」で終わっていたことを見かねてこんな話がありました.
  「思う」のはターゲットが一つで、「考える」のは複数のものたちを対応付けているとのこと.
  客観的な文章に「思う」は不適切ってのは前々から言われていること.

記憶について

 記憶は再構成されている.入力⇒ためる⇒思い出すという流れではない.
 個人の記憶を外部に取り出すことができるかもしれない.その時期はわからないが、おそらく2045年と言われているシンギュラリティではないか??

ビデオ資料①「記憶の海へ」

  ストレスがかかるとその方向にバイアスがかかり、記憶に偏りが出てしまう.
  ウェポンフォーカス効果
   凶器にばかり目が行ってしまい、その他の部分、例えば犯人の顔とかに注意が行かない現象

  三億円事件も目撃者の記憶が操作の頼りになっている.

  誤認逮捕で人生がめちゃくちゃになってしまうことも多々ある.
   たとえ10㎝の距離にいたとしても、記憶はあいまい.


  ここでアメリカのあいまいな記憶に関する事件についての話に.
   20年前の記憶が殺人事件の記憶と一緒によみがえる.
   父親と友人と一緒に湖に遊びに来ていたところ、友人が何者かに襲われ、行方不明.その後死亡していたことがわかった.
   よみがえった記憶によると友人を殺したのは父親らしい.

   裁判の結果、父親は有罪.無期懲役になった.

   その後、一人の心理学者が判断材料になった「よみがえった記憶」に異議を唱える.その当時の感情が偽の記憶を作り上げてしまったのではないかと.


   川島隆太教授によると
    好き嫌いは脳の別々の領域で処理している.
    記憶のメカニズムは「パペッツ回路」というもので、過度なストレスがかかることによりこの回路が途切れ記憶がなくなる.しかし、その時の感情だけは残っている.


   よみがえった記憶は他人に作られたものである可能性がある.その要因としてセラピストによるものや、それ以前の父親に対する感情などがあげられるが、それも自分の記憶であるか定かではない.

   結局、再審で父親は無罪.釈放された.

   記憶とは水に入れた一滴の牛乳のようなもの.一度混ざってしまうと、どれが牛乳でどれが水なのかわからなくなってしまう.


  ⇒結局この事件はうやむやのままになっている.これをきっかけに、アメリカ各州では記憶を証拠として認めないものとし、セラピストのもとには「記憶を作られた」と訴える客が押し寄せたそうだ.家族関係も最悪になり、人の記憶のあいまいさや無条件に信じることによって起こる弊害も見せられる事件になっている.

この事件についての記事がありましたので下に載せておきます.
diamond.jp

情報通信システム 其の六 20170525

今回は情報源符号化定理の小テスト&情報量についてのお話

情報量というものを定義するにあたって、確率を用いる
 ⇒ \displaystyle aの情報量は \displaystyle aの生起確率 \displaystyle p(a)に依存する.つまり、
    \displaystyle I(a)=f(p(a))

また、次のような性質を持つことが求められる
 ① \displaystyle f(p)単調減少 \displaystyle p(a)が小さいほど情報量は大きくなる
 ②情報量の加法性
   生起確率 \displaystyle p_1,p_2が互いに独立しているとき
     \displaystyle f(p_1p_2)=f(p_1)+f(p_2)
   が成り立つということ.
   ⇒このことが示す意味は、「二つの事象を一気に知るのと別々に知るのとでは取得する情報量に差がない」ということ.

上の二つの条件を満たす関数は
  \displaystyle f(p)=-k\log p
しかない.ただし、 \displaystyle k定数.

自己情報量

 生起確率 \displaystyle p(a)の事象 \displaystyle aが生起した時に得ることのできる情報量は
   \displaystyle I(a)=-\log p(a)
 で定義することができ、この \displaystyle I(a)こそが事象 \displaystyle aの自己情報量になる.

  ⇒底が2の時、ビットネイピア数 \displaystyle eの時ナット.10の時ハートレーと呼び方が変わるらしい.

平均情報量

 背反確率情報源 \displaystyle A=\{ a_1,...,a_M\} において事象が一つ生起するときの情報源の期待値
   \displaystyle H(a)=\sum_{i=1}^Mp(a_i)I(a_i)=-\sum_{i=1}^Mp(a_i)\log p(a_i)
 を確率事象系の平均情報量と呼ぶ.

 この形は情報源符号化定理におけるエントロピーと同じ形になっている.つまり、平均情報量とは確率事象系 \displaystyle Aを情報源としたときの平均符号長の下限といえる.

 注意したいのは \displaystyle p(a)=0の時.この時の平均情報量は
   \displaystyle 0\times \log 0=0
 で平均情報量は0。イメージで言えば、「なんだこいつw何馬鹿なこと言ってんだwwww」くらいでしょうか.

エントロピーの定義について

 熱力学でも出てきたエントロピーという概念.熱力学では無秩序さの尺度だったが、情報分野では「教えてもらう以前の \displaystyle Aに関する我々の持つ知識のあいまいさ」というもの.結局何が言いたいのかというと、知らないことは情報量が大きくて、知ってることに関しては情報量が少ないということ.
 また、情報量=「その事象を知った時のエントロピーの変化量」ともとることができる.これも何を言いたいのかというと、「その事象を知ってどれだけ疑問が解けたか」ってことを言っている.

 \displaystyle H(A)の上下限

   \displaystyle 0\le H(A)\le \log M
  \displaystyle A=\{ a_1,...,a_M\} すべて同じ確率で生起するとき、平均情報量は最大になる.
 この証明は補助定理2.2より導出できる.