活性化関数(ReLU)
活性化関数(ReLU)とは
ReLUとは、負の値のときは0を出力し、正の値のときはその値をそのまま通す、最適化に用いられる活性化関数です。この関数を通すことで、ニューラルネットワークの精度が上がると考えられており、研究が進められています。 (
https://ledge.ai/neural-network/
より引用)
*参照元
https://ledge.ai/neural-network/
#テーマ4