ナンクル力学系

学んだ事を書き連ねていこう。

グラフを見て分かるNeural Networksシリーズ〜数式抜きで解説してみる〜

with one comment

ニューラルネットを数式抜きで解説してみようという画期的なシリーズを始めます!
多分すぐ終わるけどねw

ここで言うニューラルネットは人工ニューラルネット(ANN)のことで,生物の脳神経系のニューラルネットとはアイディアと名前を借りてきたくらいでほとんど関係は無いと思ってOKです.

ニューラルネットは下図のようなニューロンが結合したものです.

nn0

ニューラルネットで扱うニューロンはこんな感じ

  • Input x
    • ニューロンの入力です.
  • Weight W
    • ニューロンの結合荷重と呼ばれます.ここではweightと言うことにします.それぞれの入力信号をどれだけ増幅するかを決定します.負の値(入力の反転)や,0(結合していない)をとることもあります.
  • Bias b
    • ニューロンへ,ひたすら同じ値を入力します.
  • Internal Value u
    • biasと入力にweightを掛けた値の総和です.
  • Output y
    • ニューロンの出力です.
  • Activation :
    • internal value uからoutput yへの変換です.この変換のお陰で,ニューラルネットは多様な入出力関係を作り出すことが出来ます.

ニューロンの(というかactivation)の入出力関係を図で表すと下の図のようになります.

右下のグラフの波形が,左上の波形に,右上(一番大きい)のグラフの入出力関係を用いて変換されます.(グラフを書く関係上,入力と出力とでグラフが90度回転しているので注意してください.)

色の対応を見ると,

  • 0に近い入力は似た形を出力
  • 0から離れると1に張り付いた出力

になることが分かります.

neunet0

ニューラルネットに用いるactivationの入出力の非線形性はこんな感じ

ではまず,下のような一番簡単な入力が1つだけのニューラルネットワークを考えてみましょう!

nn1

入力が1つだけのニューロン

このweight wとbias bを変化させると多様な出力を得ることが出来ます.wとbの値を変化させてみたニューロンに,波形を入力した時の出力をグラフで表してみます.

一段目が入力で,二段目がweightを固定してbiasを動かしてみた例,三段目がbias固定でweightを動かしてみた例です.

  • biasを動かすと入力に反応したりしなくなったりする
    • → 入力に「着目」するかを選んでいるように見える!
  • weightを動かすと入力が伸縮している
    • → 入力にどの程度「着目」するかを決めているように見える!
neunet1

同じ入出力に対して、weightとbiasを変化させると出力はこのように変化する

だんだん面白くなってきました!

この多様な入出力関係を使うことで,様々な入出力関係を構成することが出来ます.組み合わせのもっとも簡単な例として下のような2入力,1出力,1ニューロンのニューラルネットを考えて見ます.

nn2

入力が2つのニューロン

このニューラルネットを使って実現されたand回路を見てみます.(ここでは,weightとbiasを(2.0, 2.0),-1.6としました.)

and回路とは,2つの入力が真ならば真を,それ以外なら偽を出力する(論理)回路です.全部書き下すと,

  • 真,真 ⇒ 真 ・・・ (真かつ真ならば真)
  • 真,偽 ⇒ 偽 ・・・ (真かつ偽ならば偽)
  • 偽,真 ⇒ 偽 ・・・ (偽かつ真ならば偽)
  • 偽,偽 ⇒ 偽 ・・・ (偽かつ偽ならば偽)

という関係です.ここでは,-1を偽,1を真とします.

二つの入力に今まで同様,波形を入力してみます.同じ入力だと面白くないので周期をずらしてみました.

二つの入力が共に1に近くなった時だけ,Outputが反応していることが分かると思います.

ニューラルネットのこんな簡単な仕組みで,入力からある情報(ここでは二つの入力が両方1に近い)を取り出せるなんて凄いね!感動して下さい.

neunet2

and回路を作ってみて、sin波のピークが合わさった時だけ反応するネットワークが出来た

今回は簡単な構造ニューラルネットしか扱わなかったし,ニューラルネットのメインのテーマである「学習」にも触れませんでした.さらに,入力と出力の関係だけでなく,過去の入力との関係を扱えるニューラルネットも存在します.

という訳で,かなりディープな世界になっています!

...疲れた.次回はないな.(ぉw

ついでに...

~数式を自重しないニューラルネットワーク入門~

今回扱ったニューラルネットの一つ,(一層)パーセプトロンは

y_i = \tanh( \sum_j w_{ij} x_j + b_i ) i \in {\cal O} j \in {\cal I}
ただし {\cal O}, {\cal I}は入出力空間

です.

数式のほうがわかりやすいね!!w

Written by tkf

November 29, 2008 at 3:41 am

One Response

Subscribe to comments with RSS.

  1. グラフのほうが好みですww

    ramsa

    November 29, 2008 at 10:07 am


Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: