正則化
from
機械学習のアルゴリズム
単純な
最小二乗法
では変数の選択を間違えると
回帰係数
が非常に大きくなる傾向がある
回帰係数が非常に大きい
と、
説明変数xが少し変化しただけで
予測結果yに大きな影響を与えてしまう。
これを防ぐために、
正規化項
を導入する。
「回数係数が大きいことによるペナルティを与える項」
正規化項の作り方は二つある
L1正規化
回帰係数の絶対値の和を基準にする。
あまり重要でない説明変数の回帰係数がゼロになる性質がある。
そのため、本当に必要な変数だけが回帰に利用される。
線形回帰において
ラッソ回帰
と呼ばれる
L2正規化
回数係数の2乗和を基準とするもの。
誤差関数を最小化する計算が簡単で、予測性能が高い。
線形回帰によって
リッジ回帰
と呼ばれる
L1とL2を両方用いたものを
Elastic Net回帰
とよぶ。
ニューラルネットワークでもL1,L2正規化を行うことで過学習を抑えられる。