ナンクル力学系

学んだ事を書き連ねていこう。

Posts Tagged ‘〜を勉強しよう!

卒論終わったらLie群勉強するんだ

leave a comment »

対称性の破れとパターン形成の数理を興奮して買ってしまった んだけれど,少し読むとLie群の知識が必要なことが分かった. いきなり,準同形写像\rho:\Gamma\to GL(V) とか出されても困る. Lie群なんてまじめに勉強したことが無いな. 買う前にちゃんと立ち読みしなさい,ってとですねわかります.

仕方が無いので参考文献をググってたら, Symmetry Groups and Their Applications by Willard Miller (Academic Press, New York, 1972) がPDFで公開されているのを見つけた. 黄ばんだ古い本をスキャンしたやつだけど,印刷すればそんなに悪くない(印刷中なう). 古い本なので,英語が読みにくくないか少し心配だけど. もう一つあげられてた参考文献,Representations of Compact Lie Groups by T. Bröcker and T.tom Dieck (Springer, 2003) は大学図書館にあるみたい なので,次に大学行く時にかりてみよう.

これで勉強できるかな.そういえばここにも群とかLie群のテキストあった.

はやく卒論終われ!(ぉぃ

Written by tkf

January 27, 2009 at 11:09 am

情報幾何とか簡単に学べる本見つけた

leave a comment »

昨日久しぶりに大学に行って生協に入ったら「情報理論の基礎 新版―情報と学習の直観的理解のために (SGC Books M 3)」という本を発見してしまった。そして衝動買い。

情報理論の基礎 新版―情報と�習の直観的理解のために

情報理論の基礎 新版―情報と学習の直観的理解のために

サイエンス社のページに行くと目次が見られる。

<目次>

第1章 はじめに
  1.1 情報とは何だろう?
  1.2 学習とは何だろう?
  1.3 確率変数としての情報の記述
  1.4 確率モデルのいろいろ
  1.5 補遺

第2章 情報理論の基礎事項
  2.1 情報源
  2.2 通信路
  2.3 符号化
  2.4 情報量
  2.5 補遺

第3章 情報幾何の考え方
  3.1 確率分布の空間
  3.2 KL-情報量
  3.3 “まっすぐな”線と“平らな”面
  3.4 直交葉層化と射影
  3.5 補遺

第4章 符号化と種々の情報量
  4.1 情報源符号化
  4.2 通信路符号化
  4.3 連続情報の離散化
  4.4 補遺

第5章 モデル選択
  5.1 モデル選択の考え方
  5.2 推定量のばらつき
  5.3 AICの考え方
  5.4 MDLの考え方
  5.5 AICとMDLに関する補足
  5.6 リサンプリング
  5.7 補遺

第6章 混合モデルとアルゴリズムの幾何学的理解
  6.1 混合によるモデルの拡大
  6.2 EMアルゴリズム
  6.3 ブースティング
  6.4 バギング
  6.5 補遺

付録A 確率論の基礎

情報幾何、モデル推定、AIC、混合モデル、EMアルゴリズム(とemアルゴリズム)とか、勉強したい!と思ってたことじゃないですか。これは俺のための本ですかw

しかも、これらの内容は確率・統計、あと情報幾何については微分幾何学にもかなり学ばないと勉強出来ないようなものばかりなのに、かなり簡略化して書いてある。おかげで、地道に積み上げていかなきゃいけない知識をぶっとばして学ぶことが出来る。すばらしい!

もちろん、去年解析力学やるために勉強した微分幾何(のイメージ)が多少頭に残っているし、確率・統計についても少し勉強しているので、それが訳に立ってるはず。

この本だけを読んでもなんちゃってな理解しか出来ないだろうとは思うけれど、最初に知りたいことを(大雑把に)知ってしまうのは経験上良い策だと思っている。行き着く先が面白そうか・役に立ちそうか検討がつくし、ゴールが分かっていれば安心して(かつ期待しながら)勉強出きるし、なかなか進まなくてもっと読みやすい本は無いか?とか探さなくてすむし。

次の土日月の3日間はラボの停電で研究がまったく出来ないので、いっぱい本が読める。この本は一日目で読んでしまいたいな。

Written by tkf

October 23, 2008 at 10:58 pm

Posted in 研究日誌

Tagged with ,

読みたい本まとめ

leave a comment »

勉強したいこと、読みたい本が溜まりつつあるので急いで整理する。

目に入った順:

  • ルベーグ積分30講(志賀浩二)
    • イメージを大切にしている感じ。
    • 厳密さも、今の自分の能力・時間とかを睨むとこれくらいが良い気がする。
    • 1構読むのにそんな時間はかからない感じ。
  • Pattern Recognition and Machine Learning (Christopher M. Bishop)
    • ニューラルネットやるなら、機械学習の基礎が分かってないとダメだろJK、ってことで読む本。アマゾンから届いた。
    • 高いし重い。
    • まとまった時間で読みたい。
  • Rethinking Innateness (Jeffrey L. Elman, et al)
    • ラボのチームリーダー(ボスのボス)から、「この分野のこと知りたいならまずこの本読むと良いかも。でもこの時期に読んだらアイディア溢れてきて卒論書けないかもねw」と言われた本。
    • 数式少ない><
    • じっくり読まなきゃダメっぽい。腐った英語能力には良い刺激かも。
  • 数理統計学(稲垣宣生)
    • 途中まで読んだ。検定あたりまで。検定というネーミングがなぜか嫌で興味を失いつつあるw。っていっちゃだめだ!
    • 途切れても良いからまとまった時間で読んで、あとで一気に復習する感じかな。
  • プログラミングのための確率統計(仮)
    • 第一部を飛ばし読みしたのでそれの復習。あと後半も。
    • 簡単に読めるので、急いで今読まなくても良いかも?
  • パターン認識(石井健一郎、他)
    • 一応全部読んだけど、やっぱり復習大事。
    • 。。。って言いつつ読まない気がするw。
    • 今のところ優先度は低いかな?
  • 情報量統計学(坂元慶行、他)
    • 数理統計学よりこっちのほうが自分の興味にあってるかもしれない。
  • 情報幾何の方法(甘利俊一、長岡浩司)
    • いつになったら読めるのやらw
  • 神経回路網の数理(甘利俊一)
    • そういやこの本も読みたいな〜と思ってた。
    • 前の研究室出ていくときに、先生からもらった思い出の品。でもまだ読んでない。
    • なんかエピソード思い出したらよまなくちゃ!と思ってきたw
    • しかし優先度は低めで(ぇ

読みたい本多すぎだw

複数のタスクを同時実行することは不得意中の不得意なので、どうにかしないとな。今まででこんないっぺんに本沢山読んだことないし。

あと、今の研究がチーム戦でしかも締切りが結構ヤバい状況なのであんまり時間無いんだよな。

とりあえず、

  • 最優先で
    • Pattern Recognition and Machine Learning
      • 勉強する時間は全部こいつに当てる。
    • Rethinking Innateness
      • 細切れの時間でも良いから読む。継続させる。
    • ルベーグ積分30講
      • 寝る前とか半端な時間に1構読む、って感じで。
  • どれか読み終わったら
    • 数理統計学 か 情報量統計学
    • ↑二つどっちかの後、読めそうなら 情報幾何の方法
  • 保留
    • プログラミングのための確率統計(仮) の復習
    • パターン認識 の復習
    • 神経回路網の数理

という作戦で!

Written by tkf

October 21, 2008 at 8:28 am

ルベーグ積分を勉強するわけ

leave a comment »

一応、認知ロボティクスをやってる研究室に居るわけだけど、なぜルベーグ積分やろうと思ったか説明する図:

m2r

数学からニューラルネットを通ってロボットへはこんな感じでつながる

↑の図はあくまでニューラルネットワークを通しての分野のつながり。これは、数学とロボティクスのつながりの一面しかとらえてなくて、本当は「多様体→解析力学」ってつながってロボットの運動をバリバリ解析していこうという流れもあるし、制御で安定性の話やると力学系の話がからんできたりする。とういか、そっちの話のほうがよりロボット工学らしい気がする。

まあ、確率論・統計学や力学系なんてどの分野とも関係してるんじゃないかと思う。その基礎を固めようと思うとチラチラ見えてくるのがルベーグ積分。

カオスを勉強しようと思って力学系の話を読むと最初のほうにカントール集合とか出てきて、「ルベーグ積分勉強してきなさい!」と怒られる。

確率論を勉強しようとすると「ボレル集合だよ?分からないの?ルベーグ積分と測度論知らない人は来ちゃダメ!」と怒られる。

まあ、そこまで基礎を固めなくても良いかもしれないけど専門的な話になると辛くなる。どちらかと言えば、ロボティクスの話というか周辺の話題についての研究を調べるときに必要になる感じだと思う。

という訳でルベーグ積分をさらっと勉強してしまおう。厳密になりすぎない程度に。

卒論大切な時期だけどねw(ぉ

Written by tkf

October 11, 2008 at 3:43 am

Follow

Get every new post delivered to your Inbox.