勾配消失問題
活性化関数であるシグモイド関数の微分によって最大値が減少してしまうため,隠れ層が多くなるにつれて誤差が0に近づいてしまう.
これに対しtanhを用いることで最大値の減少を抑えるというアプローチがあった.
さらにReLU関数を用いることで勾配消失問題をさらに抑えることができた.