活性化関数
https://towardsdatascience.com/activation-functions-neural-networks-1cbd9f8d91d6
グラフで実感しておく。 ハイパータンジェント、シグモイド, ReLu(
Rectifled Linear Unit
), LeakyRelu
https://cdn-images-1.medium.com/max/800/1*f9erByySVjTjohfFdNkJYQ.jpeg
Derivatives(微分)
https://cdn-images-1.medium.com/max/800/1*n1HFBpwv21FCAzGjmWt1sg.png
#ml