Bayesian Learning on STDP
Bayesian的な処理が脳で行われていることが多くの研究により示唆
Poisson spiking neuronを確率的なwinner-take-all回路と組み合わせると,多項混合分布のパラメータを学習する確率的なオンラインEMアルゴリズム(Expectation Maximization)を近似できた(Nessler, W.Maass et al., 2009, STDP enables spiking neurons to detect hidden causes of their inputs)
$ \Delta w_{ki} =
$ e^{-w_{ki}} - 1 \ \ (0 < t^f_k-t^f_i < \epsilon=10\mathrm{ms})
$ -1 \ \ (\mathrm{otherwise})
Eステップ:出力スパイクは潜在変数の事後分布からのサンプル(?)
Mステップ:STDPによる学習
抑制性ニューロンをWTAに加え,皮質とのcompatibilityを高める(Nessler, Maass et al., Bayesian computation emerges in generic cortical microcircuits through spike-timing-dependent plasticity)
上記のstochastic WTA circuitの上にliquid state machine(LSM)を構築(S. Klampfl and W. Maass, Emergence of dynamic memory traces in cortical microcircuit models through STDP, 2013)
入力ニューロン群
WTA回路のreservoir
線形の出力読み出し
さらにSTDPをlateral(遠心性?)興奮性シナプスと求心性シナプス両方に適用すると,入力の時空間パターンに内在する統計的構造の表現を獲得できた(D.Kappel, B.Nessler, W.Maass, STDP installs in winner-take-all circuits an online approximation to hidden Markov model learning, 2014)
このWTA回路によって生成されたスパイク列はHMMの状態空間からのサンプルとみなせる.
時空間パターン認識と音声言語識別に応用(A.Tavanaei, A.S.Maida, Studying the interaction of a hidden Markov model with a Bayesian spiking neural network, 2015)
上記の更新則で,励起時の重み更新が負
定数を加えれば正にできる,というアイデア
先の研究ではなぜそうしなかった?yosider.icon
SNNに獲得されたEMは,近似的にHMMの状態空間におけるガウス混合モデル(GMM)として振る舞える.(A.Tavanaei, A.S.Maida, Training a hidden Markov model with a Bayesian spiking neural network, 2016)
STDPの確率論的学習
Deep Learning in Spiking Neural Networks p.4