ニューラルネットワーク
https://gyazo.com/f9d48f693bcff67dc7a56eae02ffc70a
基本の回帰モデルを表すと↑になる
これの層を増やしたり、間のユニットを増やすことで学習
https://gyazo.com/db16bf5a95f6c84071dd4af48d95bc60
各矢印が、重みwを持っている、全部違う値
学習によって調整される
それだけだとただの回帰と同じ、だから、ReLUやTanhを使ってフィルターをかける
リッジ回帰みたいに、正則化して重みを0に近づけることもできる
デフォルトはほとんど正則化しない
最初は、乱数で重みを決める
学習した内容の解析が難しい、やる方法の一つは重みのヒートマップをみること
パラメーター学習のアルゴリズムには、adamやlbfgs等が初心者向けにある
#Pythonで始める機械学習
-.icon
https://gyazo.com/d922f2375a6ef10632b128cf874d61b7
モデルが完成したら、実際に予測する時はこの計算をすればいいだけ、簡単
(xが入力、Wが各層の重み、yが出力、σがシグモイド関数)
一つの層のたくさんあるパーセプトロンのうち、一つがめっちゃ影響力強くなっちゃうことがある
それを避けるために、ランダムにdropoutする
過学習を避けるために
#Udacity_Intro_to_Deep_Learning_with_PyTorch
#ディープラーニング