2009-09-13
#PRMLhackathon ナウ T
#PRMLhackathon ロイヤルホストの隣、把握。延長ケーブル、把握。 T
でもなんか外出する気が減退してきたかも T
今から飛び入りできるスペースはありますか? > #PRMLhackathon T
UIImagePickerControllerでカメラロールを開こうとすると8秒とかかかる。なにがおかしいんだろう。 T
なんかとても疲れた。頭と腰と目がいたい。まとめを書くのはまた今度 T
@jarinosuke0808 むしろ「連想配列」という呼び方がわかりにくくてPythonでは「辞書」と呼ぶことにした、という流れ RT avaScriptでは、pythonでいうディクショナリを連想配列って言うのか。ディクショナリの方が名前的に分かりやすいと思うんだけどなぁ。 T
というわけで自己組織化マップもボルツマンマシンもパーセプトロンではないけどニューラルネットです、と強く主張したい T
@shuyo Wikipedia「ニューラルネット」より:「狭義には誤差逆伝播法を用いた多層パーセプトロンを指す場合もあるが、これは誤った用法である。」 T
「それモルフォロジー演算でできるよ」 #PRMLhackathon T
モルフォロジー演算 #PRMLhackathon T
#PRMLhackathon XORの学習難しいよねという話ナウ T
なぜかTornadeの話になっているナウ #PRMLhackathon あわせて読みたい: http://blog.shibu.jp/article/32075270.html T
やはり新しいTwitterアカウントを作るかなぁ T
時々 #PRMLhackathon つけ忘れる T
@smly の発表 D-walk ってとても蛋白質間インタラクション向きのクラスタリング手法だと思った T
#PRMLhackathon ふむ、これは高次元ベクトル空間を原点を通る超平面で分割する空間分割の方法なのか T
@tb_yasu によるLocality Sensitive Hashの解説を聞いているナウ 距離k以内の点を多少のエラーを許して高速に求める方法。これ物理エンジンのあたり判定に使えるかなぁ。 T
#PRMLhackathon @tb_yasu の発表を聞いているナウ T
UCIのデータセットのadultってのは人間のいろいろな属性から高収入かどうかあてろというものらしいw #PRMLhackathon T
あとで @tokoroten に #sbmconf の内容を教えてもらおう T
@kenji4569 結局うまく説明できなかったですけど、6層からは2層に抑制性、5層からは3層に興奮性で戻る設計にするとパターンの学習ができるに違いない、って感じになりました T
Daubechies' Wavelet #PRMLhackathon T
#PRMLhackathon でも #sbmconf でもLocality Sensitive Hashの話をしていたというオチ T
冬のプロシンか来年の夏のプロシンまでにライフゲームのデータを学習してグライダーを「グライダー」という単一のパターンとして認識するようになったらいいなぁと思っているけどタスク積み過ぎなので本格的に着手するのは避けていた。 #PRMLhackathon T
入力を切ると夢を見始めるニューラルネットだって言う肝心なところを説明し忘れた #PRMLhackathon T
Q「それは○○と何が違うんですか」A(nishio)「今朝思いついたところなので先行研究とか調べてません」 T
#PRMLhackathon のみんなのやったことを聞いているナウ T
今さっき気付いたのだけども、SOMの側抑制も、ボルツマンマシンも、両方とも自分には接続する必要がないという点で同じだ。面白い。 #PRMLhackathon T
発火しているニューロンが1個になるまで(0でも2でもなく)側抑制を掛けるのは調整の時間がかかるなーと思ったんだけど、実はそれは必要ないのかもなー #PRMLhackathon T
@naoya_t 自己紹介、時間が十分あればホワイトボードを使いたいなー #PRMLhackathon T
適当に足し算するニューロンにしていたら超興奮状態になって誰も止められなくなってしまった。確率的な動作をするやつに変えようかな #PRMLhackathon T
#PRMLhackathon 会場の付近で発声練習をしていて笑ったら負けだ笑ったら負けだ状態www T
@kenji4569 2層か3層のどちらかにだけ抑制性細胞があったりするととてもうれしいんですけどそう都合よくは行かないですよね? T
抑制性2回を重ねて興奮性にするんだとすると4層から2層か3層かどちらかへの配線は抑制性でなければならないが、実際はそうではないんだろうなぁ #PRMLhackathon T
頭を冷やしたら抑制性の神経を2つとも使ってしまったらどうやって側抑制するのかわからなくなった #PRMLhackathon T
少し散歩して頭を冷やしてくる #PRMLhackathon T
あああ、そうか、ねじるんだ。2層の興奮を2層に戻すんじゃなくて3層に戻して3層のを2層に戻せば両方抑制性の信号であっても興奮性のリカレントネットワークになるじゃないか!! T
今の理屈はまんま3層を2層、5層を6層と切り替えても成立するなぁ。似たようなものが2個あることが設計上重要な意味があるんじゃないかという気がする。 T
視床を介するフィードバックはあるけど、大脳皮質の全域に渡ってフィードバックしたいので僕なら別の場所で実装したりしないんだよなぁ。きっと大脳皮質の中にあると思うのだが… T
@kenji4569 4層が入力を受けて、興奮した細胞が3,4層経由で上位に信号を投げる際に上位の5層を興奮させ、5層が下位の1層に抑制性の信号を投げて興奮したニューロンの周辺のニューロンを抑制するような感じで教師無し分類の回路が作れるのであとは時系列パターンの記憶を… T
@kenji4569 自己組織化マップの一番の特徴は一番入力にマッチしたニューロンが残りのニューロンを全部抑制するWinner Take Allの部分にあるので、何らかの形でそれができそうな配線が欲しかったのでした #PRMLhackathon T
@kenji4569 5, 6層が下位領域の1層に抑制性の信号を出して、それを2, 3, 5層が拾う、という認識で正しいですか?であれば3層と5層の間で僕の期待しているネットワークを構築できそうです。 T
大脳皮質の接続の図を2層並べて書いてみるナウ #PRMLhackathon T
は、もしかして大脳皮質のカラム構造が機能単位なのではなくて、カラムと次のカラムへの接続の部分が機能単位なのではないか #PRMLhackathon T
@naoya_t だって声を出しづらいんだものw RT 会場内の会話システムがtwitter #PRMLhackathon T
@kenji4569 で、そうなると第四層が興奮した時に、他のニューロンを抑制する配線があるべきなんですけども、どうも第四層の間同士で抑制性の神経があるようにみえないのでどうしたものかなぁと。 #PRMLhackathon T
@kenji4569 特に何が聞きたいというわけではないんですが、大脳皮質の層状の構造が自己組織化マップとボルツマンマシンの繰り返しになっているんじゃないかと妄想していたりします #PRMLhackathon T
お客様の中に大脳皮質のニューロンがどういう接続関係にあるかに詳しいかたはいらっしゃいませんか #PRMLhackathon T
Code Campで結局どういう形で最中限サーバが勝敗データを記録することに下んだか忘れてしまったが、ホワイトボードはプリントアウトして持ってきているので今日は考えないことにする。 T