スペシャル課題1復習
RBFの幅
小さくすると細かくフィッティングできるが、関数が滑らかでなくなる。→過学習
大きいと滑らかになるが大雑把になる。
ユニット数を変えるだけででなく、幅も最適化する必要がある。
正則化パラメータ
正則化パラメータを大きくすると重みが抑えられる。
重みが抑えられる:ラクダのこぶ二つ背中が上に凸な二次関数に変わっていく感じ。
学習データ
データ数(サンプルサイズ)がたくさんあれば分布が推定できる。
分散誤差がNを大きくすると小さくなるのは、分散誤差においてNが分母にあるから。
学習データが多いほど機械学習等をする上で効果大
真の関数の複雑さと既定関数の幅
真の関数の複雑さに合わせて適当なRBFの幅を決める必要がある。
自動的にパラメータを決める手段
ランダムサーチ
グリッドサーチ
ベイズ最適化
進化計算
ここらへんの最適化方法はレッドオーシャンの分野なので、ここ2,3年で一気に開発が進んでいる。
交差検証
#テーマ5
参考
授業