ヘブ学習は相関学習
一番シンプルな式は、
$ Δw_{ij}=\eta r_i r_j
シナプス後ニューロンの活動はシナプス前ニューロンからの入力に依存するはずなので、
$ r_j=\sum_iw_{ij}r_i
シナプス前ニューロンの活動とその結合の強さの積で表現できる
もう少し書き直すと
$ r_j=\sum_iw_{ij}r_i=\mathbf{r^T}\mathbf{w_j}
Naa_tsure.icon$ \mathbf{r}: シナプス前ニューロン達の活動(ベクトル)
Naa_tsure.icon$ \mathbf{w_j}シナプス前ニューロン達との結合強度(ベクトル)
これを最初の式に戻すと、
$ Δw_{j}=\eta \mathbf{rr^T}\mathbf{w_j}
$ \mathbf{rr^T}というのはシナプス前ニューロン同士の活動を掛け算した行列
つまり入力の性質が似ているほど、結合が強くなることを示している
Naa_tsure.icon相関による学習