LeNet
https://youtu.be/-tWolA2WvFI
この時代の「大規模データセット」は16×16の手書き文字480枚
stride
2
kernel
の1回の動き幅
最近の
Convolution layer
の活性化関数は
ReLU
が多いが、この論文は
Tanh関数
を使っている
まだなかった?
16×16の入力にstride 2で畳み込むので8×8になる
2つになるのはなぜ?
基素.icon
ここで詰まったので過去動画に遡ったけどまだ理由が見つからない
5×5でconvolutionする
現代なら
Pooling
をする
/villagepump/LeNet