マエカワの備忘録的な何か

思い立ったが吉日

「人体展」に行ってきた

はじめに

 こんにちは.マエカワです.

 すっかり梅雨に入ってしまい,連日雨で嫌になっているところです.

 今回は,上野の国立科学博物館で2018/3/13から2018/6/17まで開催されていた「人体展」に行ってきましたよってエントリになります.もう開催期間が終了してしまったので,記録用みたいな感じになりますが,あしからず.

 それでは,お付き合いのほどよろしくお願いいたします.

本題

なんか行きたくなっていた

 そもそも,なんでこの「人体展」に興味を持ったのかというとですね

の3つが理由ですな.あと,SNSとかでの評判も相まって,生きた意欲が高まっていました.

 NHKスペシャルのほうは前から見ていて,「こんな風にメッセージを送り合っていたのかぁ」とか「すげぇなぁ人間の体って」とか,とても面白かったんですよね.きれいにビジュアライズされていてわかりやすくて,とても楽しく人体の仕組みが理解できる番組だと思います.

 webサイトも,とても凝られていてきれいなのでぜひ.

www.nhk.or.jp

 3DCG技術が発達して,ここまできれいに表現できるのかぁと最近の番組を見ていると思いますな.特にNHKは.この間も,高橋一生さんがMCをなさっていた番組で,息をのむような映像を見れました.確かネアンデルタール人ホモサピエンスは一時期共存していたとかいう内容だったはず....話が脱線してしまった.軌道修正....

 二つ目の「人間の臓器の標本」.普通に生きていて,本物の標本に出会うことなんてまずないわけですよね.見れたとしてもテレビの中なわけで.「こんな機会逃すわけにはいかねぇ!!」と,思ったのが大きいですな.消化器の標本とか,でろでろしていて面白かったですが,この話はまた後で.

 ダヴィンチの手記が見れるってのも,自分にとってはすごく大きかったわけですな.被写体の構造を徹底的に調べ上げて,描くときの資料にするその精神...,とんでもないですわな.さらに左利きだったこともあって,書いてあるすべてが鏡文字.研究者の頭を悩ませたその手記が間近で見ることができるなんて,行く以外考えられなかったわけですよね.

 そんなこんなで,「人体展」に行くことが頭の中で決定いたしたわけですが,実際に行くことになったのは2018/6/10になるわけです....

いざ「人体展」へ(2018/6/10)

 なんやかんやで,友達一人引き連れて「人体展」へ.この日は夕方からバイトがあったっていうこともあって,かなりの強行.早起きして行軍しました.

 上野駅に着いたのは9時半前.あいにくの雨で,僕のおなかは壊滅状態.ヨドバシカメラのトイレを貸してもらい,準備を整えて会場のほうに行きました.

f:id:maekawa_yoshimiki_1119:20180620160435j:plain:h500

f:id:maekawa_yoshimiki_1119:20180620160802j:plain:h500

無茶苦茶並んでた....少しは覚悟していたんですが,想像以上の混雑でしたね.日曜日だったということもあるんでしょうが,親子連れがいっぱいいらっしゃいました.あと,ブラジルフェスティバル的なものも近くで開催されていたり,上野動物園ジャイアントパンダ「シャンシャン」の誕生日が近かったりと,上野のあの辺はごった返していました.

 土日は整理券が配られていたらしく,チケットを買った後に結構待たされてしまった...*1。10時前にチケットを買って,渡された整理券の案内時間が13時前あたり.人気度がうかがえる....

 ちなみに,弊学生は国立科学博物館とパートナーシップを結んでいるらしく,本来1600円のところを620円引きの980円で入場することができました*2国立科学博物館の常設展は基本無料で入れることは知っていたんですが,特別展にまで恩恵が来るとは知らなんだ....感謝.その分チケットはダサかったです.

f:id:maekawa_yoshimiki_1119:20180620174241j:plain:h500

スタンプで「パートナーシップ」って....ちなみに,通常のチケットは青色です.そっちのほうがかっこいい.

f:id:maekawa_yoshimiki_1119:20180620174302j:plain:h500

それと,整理券.これを手に入れた時点でまだ10時くらいです.そのまま待ちぼうけるのもアレなんで,常設展を見て回ることに.「地球館」のほうをブラブラすることにしました.

常設展すげぇ...

 常設展示を無料で見られるというアドバンテージを持っていながら,この時がおそらく初めてでした.地球館を見てきたんですが,入るや否やなんか恐竜の骨格標本がお出迎え.

f:id:maekawa_yoshimiki_1119:20180620175856j:plain

なんていう恐竜だったかは忘れた.あとは,昆虫とか恐竜とか.楽しい.ということで,撮った写真たちを乗っけていきます.

f:id:maekawa_yoshimiki_1119:20180620180556j:plain

f:id:maekawa_yoshimiki_1119:20180620180601j:plain

f:id:maekawa_yoshimiki_1119:20180620180648j:plain

f:id:maekawa_yoshimiki_1119:20180620180714j:plain
ステゴサウルスとアンキロサウルス

f:id:maekawa_yoshimiki_1119:20180620180724j:plain
でかい鹿.大昔の地球にはいたらしいですよ.

f:id:maekawa_yoshimiki_1119:20180620180616j:plain
チョウとガの違いについてボランティアの方が説明してくださいました.前で聞いてる男の子,かなり興奮している様子.

 見ているうちに,「やっぱり博物館好きだなぁ」と再確認です.ここまで大きいところはそんなに言ったことなかったし,中きれいだし.正直,これで半分満足してしまった感が否めない.

 展示のほかにも,日本館にある3Dシアター的な何かも見てきました*3マントルについてと,深海の生物について.自分の周りがすべてスクリーンで,独特の浮遊感も感じられて楽しかったです.映像系専攻の友達は,どうやって映像つなげているんだろうとか,そっちの方に興味深々だったようですが.

 とまあ,こんな感じで時間はあっという間に過ぎ去り,いよいよ特別展のほうへ入る時間になりました.

特別展へ

 特別展のほうは,基本写真NG(まあ,当たり前だけど)で,そんなに密に書くこともできないわけですが,お付き合いのほどよろしくお願いいたします.

ダヴィンチの手記

 本命の一つであるダヴィンチの手記が最初にお出迎え.ガラスケースに入っていて,間近で見ることができました.こんなにも正確にスケッチしてあって,読めはしないけどメモがびっしり.これだけでかなり興奮していました.一か所に固まっているというわけではなくて,展示の各所に点在しているといった感じでしたな.有名なやつもあれば,こんなの知らんわってやつまでいろいろ.腕の筋肉とか神経のスケッチはとてもすごかった.

 ただ,皆さんあんまり興味がないのか,展示後半の手記の周りはガラガラという感じでしたな.僕としてはしっかり見ることができてうれしい限りなんですが,なんだか悲しい.

人体標本

 ロウで作られたものと,紙で作られたものの大きく分けて2種類が展示されていました.消化器官のワックスモデルはかなり精密にできていて,まるで生きている人間をそのまま解剖したみたいな感じ.体は腐ってしまうから,どうにかこうにか後世に伝えようとする昔の人の努力がうかがえました.

 特に紙製のモデルに関しては外見だけではなくて,内臓のほうもモデリングしているという徹底ぶり.展示されているのはおなかの部分が閉じているものでしたが,後で調べてみるとおなかが開いて,中身もあるようでした.

 これについては全く知らなかったので,予期せぬ幸運.こんなに精密なものを見ることができてとても幸せ.限られた資源の中で最高のものを作り上げる...とても参考にしたいですな.

人体系の展示へ

 脳から始まって,心臓,消化器,筋肉などなど.ここからが「人体展」の神髄みたいなところですな.時間もあまり残されていなかったので,人の臓器の標本はすべて見ましたが,細かいところまでは見て回ることができず....悔しい思いをしてしまった.本当は説明書きまでなめるように見たかったんですけどね....

 でも,アインシュタインの脳の一部の標本的なものも見ることができて貴重な体験ができたのは確かです.受精後の胎児の発生の様子とか,こんなにまじまじと観察することなんかないわけで.人間に流れている血液の量はビーカーに移されると結構少なく見えたり(確か4リットル半だったはず).

 人間の消化器官の標本なんですが,見た時の感想は「えぐいほど長い」.こんなに長いものがどうやっておなかの中に詰まっているんだろうなんてことを考えたりしていました.

 各ブースでは人間以外の動物との比較がなされていて,非常にわかりやすかったです.なぜかキリンの脳とか心臓のホルマリン漬けが引き合いに出されていたりしていましたね.なぜかは知らない.イルカとかもありましたな.

 標本だけでなく,臓器や細胞の活動を観察するための顕微鏡の進化の様子も一緒に展示されていました.実際に原始的な顕微鏡で観察してみようというイベントも開催されていたようですよ.これにも行きたかったんですが,気づいたときには時すでに遅し....

 かなり端折っていはいますが,メインとなる部分はこんな感じです.人体模型とか標本だけでなく,それに関係するものの歴史,かかわった人の生涯など,見ることのできる分野の範囲がとても広かったです.

NHKスペシャル「人体」とのコラボブース

 メインの展示が終わったら,トイレ休憩.そのあとはHNKスペシャル「人体」とのコラボブースになりました.ここから写真撮影OKなところになります.

f:id:maekawa_yoshimiki_1119:20180620194625j:plain
入口部分

写真が下手なのはご了承ください.これが限界.

 番組のテーマと同じで,体の中のあらゆる要素のコミュニケーションをインスタレーションのように表現しているブースになります.中はこんな感じでした.

f:id:maekawa_yoshimiki_1119:20180620194914j:plain
天井にメッセージ物質の流れが可視化されています

f:id:maekawa_yoshimiki_1119:20180620194935j:plain:h500
床にはダヴィンチのあのスケッチ

 とてもきれいでした.周期的にメッセージ物質の流れが止まって,一瞬静かになるんですよね.そのあとに,どこからともなくメッセージがやってきて....そんな繰り返しを,4回くらい堪能してこのブースを抜け出してきました.

展示の終わりに

 写真を撮るところがあったので,友達に撮ってもらいました.モザイクで失礼いたします.

f:id:maekawa_yoshimiki_1119:20180620195854j:plain:h500

 すべて見終わった後も,人間とサルの違い*4について書かれたパネルとか,ためになることがいっぱいでしたな.

 そのあとはグッズ販売.手持ちがあまりなかったので,Tシャツは断念.脳のやつとかかわいかったので買いたかったんですが....あまりじっくり見ることができなかった分を補填しようと,図録を購入.あとはクリアファイル.

 図録は今じっくり読んでいます.さっき書いた紙製の人体モデルの中身のことはこの図録の中に書かれていました.展示だけでは表現しきれないことが書かれていて,読んでいてとても楽しいです.この時間も至高....楽しすぎる.

 そんなこんなで,マエカワは無事「人体展」の全工程を完了したわけです.

f:id:maekawa_yoshimiki_1119:20180620201428j:plain
シロナガスクジラが見送ってくれました

さいごに

 

 これからも国立科学博物館ではいろいろな特別展が開催されるとは思いますが,弊学生であるという特権を行使して,安く貴重な体験をどんどんしていきたいと思っている所存です.

 最近知ったんですが,今度は「昆虫展」が開催されるそうですね.香川照之さんがメインプレゼンテーターで,NHK「昆虫すごいぜ!」とのコラボだそうです.

www.konchuten.jp

これです.ジャケ絵がとても印象的.貴重な昆虫をはじめ,通称「Gの部屋」なんて物も出てくるそうで.これも楽しみ.時間のある時に行こうとおもいます.誘っていただければ飛んでいきます.

 そんなこんなで,このエントリも最後になってしまいました.結構雑なエントリになってしまった感が否めませんが,とても楽しかったということが読んでいただいた皆さんに伝わればうれしい限りです.

 未知の世界の一端に触れたり,既知の世界の新しい一面を垣間見たり.そういう楽しみ方が,これからも「人体展」みたいな特別展示からだけでなく,いろんなところからできたら楽しいな.


 それでは.


読んでいただいた方に感謝を
マエカワ

*1:平日は整理券制ではなかったらしいです.

*2:おそらく,連携している大学はすべて対象だったのかと思われます.

*3:竹中直人さんのナレーションでした.

*4:ゲノム単位ではかなり違うらしいですよ.

知的学習システム 其の三 20180423

はじめに

 今回は,最小二乗法から入っていって,最終的に最尤推定までやっていきました.

最小二乗法について

データがあるならまずは見ろ

 しっかりとデータがあるならば,散布図を見てデータを観察することから始めること.
 そのほか,機械学習のみならず,あらゆる分野ではまず人工データでシステムを試す.人工データで成功してから実データを入力してみる.人工データでうまくいかないものが,実データでうまくいくはずもない.

最初の妄想

 最小二乗法を用いていくにあたって,まずは自分の目でデータを見て,フィッティングをしていく必要がある.今回の講義では,すべて直線フィッティングできるものとし,進めていく.つまり,データ群が

   \displaystyle 
y=ax+b

で表現することができるという過程に基づいて進めていく.この a bを決めるゲームこそが回帰問題と呼ばれ,その手法として最小二乗法が存在する.

回帰問題の難しいところ

 箇条書きにしていく

  • 原理
  • 信頼度
  • サンプル数
  • フィッティング関数の形

 ここら辺のことをしっかりと見て考えることが学生の苦手とする範囲だという.そして,このようなことを考えることこそが「本当にデータを見ること」だという.

原理

 原理についてですが,結局フィッティング関数とデータ群の誤差の絶対値の二乗が最小になるように a,bの値を変えていくわけです.

   \displaystyle
D=\left\{x_n,y_n\right\}_{n=1}^N

がデータとして与えられているとき,

   \displaystyle
\hat{y}=ax_n+b

で推定していきます.データ点 x_nに対応する \hat{y_n}と,真のデータ値 yの差を誤差とみなし \epsilon_nで表すと次のように記述できる.

   \displaystyle 
\begin{cases}
\epsilon_1=\left|\hat{y_1}-y_1\right|\\
\epsilon_2=\left|\hat{y_2}-y_2\right|\\
\vdots\\
\epsilon_n=\left|\hat{y_n}-y_n\right|\\
\end{cases}

これらの値が小さくなるほどうれしいので,微分を使って求めていく.その際,絶対値があると微分不可能になって厄介なので二乗する.これが二乗になるゆえん.最小化に使える武器は,案外少なくて,微分法くらいしかないとも言っていた.それはさておき,二乗したものの平均を求めると,

   \displaystyle 
E=\frac{1}{N}\sum_{n=1}^N\epsilon_n^2

ここで質問.この Eは変数として何を持っているでしょう.

正解は a b x_n y_nは既知の値として得られているので,変数にはなりえない.
 この E a bそれぞれについて偏微分して,傾き 0の部分が最も誤差が小さくなっている a bの組み合わせ.
 この原理を統計的推定に落とし込んでいくのが今回の主題です.

統計的推測

 統計的推測とは,得られたデータから確率モデルを推測することをいう.今回はデータ群が正規分布に基づくと仮定して進めていくので,推定するのは \mu \sigmaになる.さっきの話と似ている.
 さっきは誤差関数 Eを最小化していたが,ここでは,尤度関数 Lを最大化することを考えていく.データ \vec{x}=\{x_1,x_2,\dots ,x_N\}が独立に得られたときの尤度関数は,

   \displaystyle 
\begin{eqnarray}
L&=&p\left(\vec{x}|\mu , \sigma^2\right)\\
&=&\Pi_{n=1}^N\mathcal{N}\left(x_n|\mu,\sigma^2\right)
\end{eqnarray}

になる.独立なので,かけてOK.これを微分して極値を求めていくわけだが,このままの形では面倒くさい.そこで,頭に \logをつけて掛け算を足し算に変換していきます.

   \displaystyle
\log\Pi_{n=1}^N\mathcal{N}\left(x_n|\mu,\sigma^2\right)=\sum_{n=1}^N\log\mathcal{N}\left(x_n|\mu,\sigma^2\right)

この対数を絡めてやった尤度関数のことを,「対数尤度関数」と呼ぶ.実際に \mu \sigmaの推定値を求めてあげると

   \displaystyle
\begin{cases}
\mu_{ML}=\frac{1}{N}\sum_{n=1}^Nx_n=\hat{\mu} \\
\sigma_{ML}=\frac{1}{N}\sum_{n=1}^N\left(x_n-\mu_{ML}\right)^2=\hat{\sigma}
\end{cases}

これは,得られたデータから求められる平均値と分散値.

最尤推定は本当にいいものなのか

  \mu_{ML} \sigma_{ML}の期待値を見ると

   \displaystyle 
\begin{cases}
E[\mu_{ML}]=\mu \\
E[\sigma^2_{ML}]=\frac{N-1}{N}\sigma^2
\end{cases}

となっている.これは,サンプル数が少ないと \sigma^2が過小評価されてしまうことをあらわしている.最尤推定時に不偏分散を用いるのもこの過小評価分をチャラにするため.

   \displaystyle
\frac{N}{N-1}\frac{1}{N}\sum_{n=1}^N\left(x_n-\mu\right)=\frac{1}{N-1}\sum_{n=1}^N\left(x_n-\mu\right)

こんな感じ.
 過小評価してしまうという欠点はあるものの,尤度推定はとても強力な推定方法.

音声音響情報処理 其の二 20180417

はじめに

 今回は,scilabを使って音声どうしの畳み込みまでやっていきました.理論的なことはあまり出てきませんでしたので,コードばかりのノートになると思いますが,悪しからず.

scilab操作

 一応,今回の講義で使ったプログラムは以下の通り.

音の出力

t=(1:8000)/8000; //サンプリング周波数8kHz
x=0.3*sin(2*%pi*1000*t); //角周波数1kHzのsin波を生成
plot(x(1:100)); //時刻100までの波形を出力
sound(x,8000); //サンプリングレート8kHzで再生

 これなんですが,サンプリングレートを低くしたら低速で,高くしたら高速で再生されるようになります.

フーリエ変換

 scilabには,fftという関数があります.これを使うと,離散フーリエ変換をしてくれるという仕組みになっています.ちなみに,離散フーリエ変換は以下のように記述できます.

   \displaystyle 
X\left(\omega_k\right)=\sum_{n=0}^{N-1}x\left(n\right)\exp\left(-j\frac{2\pi}{N}nk\right) , 0\le k\le N-1

ただし,離散フーリエ変換ではサンプル数(ここでは Nのこと)が異なれば,1メモリが表す数が異なることにも注意したい.不確定性というらしい.
 ということで,コードを書いていきましょう.

fx=fft(x);
plot(20.*log10(abs(fx)));

人間の感覚は対数に対応しているので,このような式でプロット.また,単純な大きさ(絶対値)でプロットしているのは,虚数空間を無視するためです.
 これでプロットされたのが次のグラフ.

f:id:maekawa_yoshimiki_1119:20180419013725p:plain

さっきの「1メモリが変わる」というのもやってみましょうか.

fx=fft(x(1:4000));
plot(20.*log10(abs(fx)));

サンプル数を8000個から4000個に落とします.そうして出てきたのが次のグラフ.

f:id:maekawa_yoshimiki_1119:20180419013918p:plain

どちらも,角周波数に設定した1kHzにスペクトルのピークが出ているのですが,前者は横軸が8000,後者は横軸が4000であることが分かります.サンプル数を半分に落とした分,横軸の1メモリに対応する値が2倍になったことがここからも確認できますね.
 そのほか,グラフにピーク値が二つあるのはサンプリング定理によるもの.サンプリング周波数の半分(エイリアス)で折り返されるというあれですね.

音の足し合わせ

 音は線形なので,足し合わすことができます.ということでコードを.

t=(1:8000)/8000; //サンプリング周波数8kHz

x1=0.3*sin(2*%pi*1000*t);
x2=0.3*sin(2*%pi*3000*t);

x3=x1+x2; //足し合わせる
sound(x3,8000); //音を聞く

fx=fft(x3); //フーリエ変換
plot(20.*log10(abs(fx))); //プロット

出てきたグラフは次の通り.

f:id:maekawa_yoshimiki_1119:20180419015502p:plain

きれいに1kHzと3kHzの場所にピークが来てますね.面白い.今度は,x2の方を半分にして足し合わせてみます.

x3=x1+0.5*x2; //足し合わせる
sound(x3,8000); //音を聞く

fx=fft(x3); //フーリエ変換
plot(20.*log10(abs(fx))); //プロット

出てきたグラフはこんな感じ.

f:id:maekawa_yoshimiki_1119:20180419020125p:plain

3kHzの方だけピーク値が低いです.分かりにくいという人のために拡大画像を.

f:id:maekawa_yoshimiki_1119:20180419020233p:plain

こんな感じ.音の大きさが半分になると,大体6dBだけピークが低くなることが分かっています.これは,デシベルの計算をみても理解できます.

   \displaystyle 
\begin{eqnarray}
20\log_{10}\frac{1}{2}&=&-20\times 0.301\\
&=&-6.02
\end{eqnarray}

知的学習システム 其の二 20180416

はじめに

 今回は数理的準備について一通りという感じでした.最後に少しだけガウス分布について出てきましたが,学部2年の「確率論」「統計学」の範疇です.端的に書いていきますのでよろしくお願いいたします.
 あと,提供されている資料は拡張子なしpdfファイルとしてダウンロードされるので,拡張子つけて閲覧してねということも連絡事項.自分はこれにはまって悶々としてしまっていた.最終的に連絡して解決.今に至るというわけです.

確立

わかりにくかったら2次元マトリックスにしてみろ

 条件付確率・周辺化など,ぱっと見では理解しにくいようなもの,特に多次元になったときにはもうお手上げ...なんて物もとりあえずマトリックスに落とし込んで理解しろとのこと.確率の基本的な原理は「数え上げ」なので,とりあえず2次元で考えていきましょうとのことでした.
 例えば,次のような確率変数からなる場合を考えてみる.

   \displaystyle 
\begin{cases}
\begin{eqnarray}
X&=&\{x_i|i=1,...,M\}\\
Y&=&\{y_j|j=1,...,L\}
\end{eqnarray}
\end{cases}

これをマトリックスに落とし込んでいくと,次のような形になる.

合計 N回施行した結果 \displaystyle \left(x_i,y_j\right)をとる回数を n_{ij}としたとき,同時確立と周辺確立を考えていく.次のように表すことができる.

   \displaystyle 同時確率 P\left(X=x_i,Y=y_j\right)=\frac{n_{ij}}{N}
   \displaystyle 周辺確率 P\left(X=x_i\right)=\sum_{Y=y_1}^{y_L}{P\left(X=x_i,Y\right)}

 周辺確率に関しては,点じゃなくて面でみるといった感じですかね.あくまでイメージですけど.
 条件付確率については,母数を Nではなく,確定値をとりうる状態数 cにすることで分かりやすくなります.つまり,

   \displaystyle 
\begin{eqnarray}
P\left(Y=y_j|X=x_i\right)&=&\frac{n_{ij}}{c}\\
&=&\frac{P\left(X=x_i,Y=y_j\right)}{P\left(X=x_i\right)}
\end{eqnarray}

こんな感じですね.いわゆる乗法定理と呼ばれるものです.
 では,いったいなぜこんな条件付確率が必要なのか.データの性質を最も直接的に理解できる方法は散布図を見ることです.しかし,多変量になればなるほど多次元空間を把握しなければならないため散布図で理解することは困難になります.そこで条件付確率を使い,多変数の分布をみることによりデータの特徴が把握できるというわけです.

ベイズの定理

 データから結論を導くために,結論から得られたデータを使う...説明が難しいですね.「原因→結果」の関係を求める際に「結果→原因」の関係を使うことができる,そんな関係式.導出自体はとても簡単で.

   \displaystyle 
\begin{eqnarray}
P\left(X,Y\right)&=&P\left(Y|X\right)P\left(X\right)\\
&=&P\left(X|Y\right)P\left(Y\right)
\end{eqnarray}

したがって,
   \displaystyle 
P\left(Y|X\right)=\frac{P\left(X|Y\right)P\left(Y\right)}{P\left(X\right)}

みたいな感じ.

事前確率・事後確率・尤度

 結果が分かる前段階で得られる確率のことを「事前確率」.結果が得られた後の原因の選択確立のことを「事後確率」と呼んでいる.例えば箱から果物をとるといった場合,箱の選択確率が事前確率で,果物が確定した後から箱の選択確率を計算したものは事後確率になる.また,箱が確定したうえで果物の選択確率のことを「尤度」と呼ぶ.尤度は,得られたデータの確からしさを示す値で,確率のようにふるまうが実質確率ではないらしい.

連続確率

 これまでは離散的に確立をとらえていたが,連続関数として確率を考えていく.これが,後で出てくる分布の考え方のもとになってくる.
 さすがに連続値として確率をとらえることができないので,微小距離 dxに区切って考えていく.すると,さっきまでシグマだったものがインテグラルに変化.積分計算で,ある範囲の事象が起こる確率が求まる.これのことを確率密度という.

   \displaystyle 
P\left(x\in \left(a,b\right)\right)=\int_a^bP\left(x\right)dx

ただし,

   \displaystyle 
P\left(x\right)\ge 0 , \int_{-\infty}^{\infty}P\left(x\right)dx=1

が成立している必要がある.
 また,連続確率空間における変数変換やヤコビ行列を用いることで実現できる.

分布について

 ここで,正規分布についての話が出てきました.正規分布はご存知の通り,

   \displaystyle 
\mathcal{N}\left(x|\mu,\sigma^2\right)=\frac{1}{\sqrt{2\pi \sigma^2}}\exp\left(-\frac{1}{2\sigma^2}\left(x-\mu\right)^2\right)

で定義される分布のことです.ガウス分布とは,正規分布の別名のこと.
 また,ガウス分布において x x^2の期待値は次のように求めることができる.

   \displaystyle
E[x]=\int_{-\infty}^{\infty}x\mathcal{N}\left(x|\mu,\sigma^2\right)=\mu

   \displaystyle
E[x^2]=\int_{-\infty}^{\infty}x^2\mathcal{N}\left(x|\mu,\sigma^2\right)=\mu^2+\sigma^2

また, \displaystyle \mathrm{var}[x]=E[x^2]-\left(E[x]\right)^2の関係式より

   \displaystyle
\mathrm{var}[x]=\sigma^2

を導くことができる.

マルチエージェントシステム特論 其の一 20180413

この講義について

 前半の講義はマルチエージェントについての座学になるらしい.

トップが変わると,全体が変わる

 この時に,

  • どんな要素が働いているのか
  • 制御方法はどのようなものなのか

このようなことはいまだにわかっていない.一人一人をエージェントとして考えていくことで,この問題を解決しようとしているのがこの学問.

高度情報化社会では...

 問題が分散され,解決されている.分散しているからこそ複雑になり,分散したものを再度統合しようとしたときに失敗する.統合に関する方法も複雑になってきている.理想としては,複数のものをマージさせたときにその数以上のパフォーマンスを実現したい.

最先端を知る必要

 最新のものを知ることは,最新のものを作るために必要になってくる.これは,人からポンと得られるものではない.今この技術が最先端だから,次はこのような技術が出てくるだろうなど,先見の明を養うことが研究の一番の目的とも言える.

院では講義をする必要はない

 自分で調べて,自分のものにすることが必要になってくる.
 情報の仕入れ先を専門外の分野にすることで,イノベーションが起こってくる.このスキルを養うことが,この講義のメインの目的.最終プレゼンでは,輪読した論文のポイントをわかりやすく発表することが必要になってくる.学会発表みたいなものをイメージしておくといいかも.

詳細ではなく,ポイントを抑える

 詳細なアルゴリズムは,最悪理解できなくてもいい.一番重要なものは,この技術はなぜ出てきたのか.従来の手法と比べて何が新しいのか.ブレイクスルーはどこの点なのか.これらを自分なりに理解,説明できるようにする必要がある.

評価

  • 論文の理解度:50%
  • 資料作成スキル:50%

 論文については,5月に開催されるAAMASで発表された,出来立てほやほやのものを採用するそうです.

内容

マルチエージェントシステムに組織学習を

 社会科学系の分野に「組織学習」という考え方がある.組織の成長のためには,

の二つを個人レベル,組織レベルで回していくことが必要になってくる.どれか一つでも欠けていたら成果は得られず,多すぎても無駄になってしまう.
 マルチエージェントシステムを考えるにあたって,人間の実世界を参照することはいいのかもしれない.

最後に

 次回は休講.