テーマ5講義メモ
第11回
コンピュータによる学習…学習する仕組みをプログラミング
教師あり学習の回帰問題
入力xと出力yの間の関数を求める問題。⇒最小二乗法など
ニューラルネットワーク
ニューロンの発火⇒ある閾値を超えると不連続に値が変化する閾値関数(ステップ関数)を用いる
形式ニューロンを三層にしたものがパーセプトロン。
線形分離不可能な問題は解けない⇒ステップ関数を連続なシグモイド関数に置き換え。
シグモイド関数はほかの関数に置き換えができる。
ガウス関数に置き換えたものをRBFネットワーク
学習が高速
モデルの中身が把握しやすい
原理敵には非線形関数をを近似できる
第12回
RMSEは平均二乗誤差(誤差の二乗の平均)の平方根
よいモデルは真の関数との誤差が小さいモデル→汎化性能が高い
教師あり学習
モデルはシンプルすぎても複雑すぎてもいけない→バイアス誤差、分散誤差
RBFの幅(山の幅)
小さくすると細かく表現できるがなめらかでなくなる。大きくするとその逆。
正則化パラメータを大きくすると重みが抑えられる。(なめらかになる)
サンプルサイズが多いほうが分布が推定できる
RBFネットワークの調節すべきパラメータ
ユニット数
各基底関数の結合重み
各基底関数の幅
各基底関数の中心位置
#テーマ5