1ニューロンが7層DNNに相当する?
Beniaguev David, Segev Idan, London Michael
The Edmond and Lily Safra Center for Brain Sciences and Department of Neurobiology, The Hebrew University of Jerusalem, Jerusalem, Israel.
深層学習では単一ニューロンの近似として興奮性・抑制性のシナプス入力を重みをかけて総和するという単純な近似を行いますが、これはかなり粗いモデルといえます(中間層が1層1ユニットのCNN、Fig. 1)。著者らは単一ニューロンのシナプス入力のタイミングから発火の有無を予測するモデルをDNNで学習させたとき、精度が飽和する最も小さなモデルで7層(各層のユニットは128)であったと主張しています(Fig. 2)。ただし使用しているデータは皮質5層の錐体細胞のモデルなので、全シナプス入力の教師データが得られます。
また、NMDAシナプス入力を除いた場合は中間層が1層128ユニットというかなり小さなネットワークでモデル化できたようです。さらに面白いことに、この場合Apical dendriteの入力がほぼ無視されるようになったようです(Fig. 3)。
Fig. 4でマウスのV1L2/3の錐体細胞の膜電位の解析を行っています。グルタミン酸のアンケージングにより単一branchにおける9点からのシークエンシャルなシナプス入力への応答のデータです。こちらは入力データが少なかったり、スライス作成による結合の切断もあり(?)1層4ユニットでモデル化しました。それぞれのユニットが様々な時空間的パターンで発火に至るまでの過程をモデル化することがわかりました。
まとめると、
・単一ニューロンの発火は7層DNNで予測できる
・NMDAシナプス入力がapical dendriteに対する演算、およびそれに伴うであろう単一ニューロンの活動パターンの複雑性に関わる
単一ニューロンの活動パターンを予測できるモデルの性能がそのニューロンの演算能力そのものとして解釈するのは危険だと思いますが、もし本当に単一ニューロンの演算が7層DNNレベルだとすれば、脳の演算能力は7層DNNが100億個もあつまったものとなりますね。
使用しているアーキテクチャーはtemporal convとfc層だけなので、我々の力でも簡単に実装できますし、様々な領域での実データも持っているので似たような解析はできるかもしれません。
コードやデータはKaggleで公開されているので、著者らよりもシンプルなモデルで近似できないか試してみるとよいかもしれません。