正則化
from 機械学習のアルゴリズム
単純な最小二乗法では変数の選択を間違えると
回帰係数が非常に大きくなる傾向がある回帰係数が非常に大きいと、
説明変数xが少し変化しただけで
予測結果yに大きな影響を与えてしまう。
これを防ぐために、正規化項を導入する。
「回数係数が大きいことによるペナルティを与える項」
正規化項の作り方は二つある
L1正規化
回帰係数の絶対値の和を基準にする。
あまり重要でない説明変数の回帰係数がゼロになる性質がある。
そのため、本当に必要な変数だけが回帰に利用される。
線形回帰においてラッソ回帰と呼ばれる
L2正規化
回数係数の2乗和を基準とするもの。
誤差関数を最小化する計算が簡単で、予測性能が高い。
線形回帰によってリッジ回帰と呼ばれる
L1とL2を両方用いたものをElastic Net回帰とよぶ。
ニューラルネットワークでもL1,L2正規化を行うことで過学習を抑えられる。