鈴木大慈-深層学習の数理
https://gyazo.com/9eb4355e2d576490e8ed810b29f2d732
hillbig 鈴木 大慈先生による深層学習の理論解析、特に表現能力、汎化能力、最適化理論について。重要なトピックを幅広くカバーしており、最新のNeural Tangent Kernelや二重効果なども解説されている。英語でもこれほど充実しているのは無いと思う。
岡野原 大輔
元のSlideshareにアクセスするとエラーになる、X/Twitter上なら見れる、キャッシュ?
https://gyazo.com/67a306cd676616557e1b7f2aef5f4a46https://gyazo.com/91bb95807b70a093ab6e502e77183bfb
Kolmogorovの加法定理
万能近似
Ridgelet変換
表現力と層の数
https://gyazo.com/81c47eba5249bf7a67c78a1f9c059646
わかりやすい具体例として原点からの距離によって値が決まる関数の場合に、4層なら次元数に対して多項式オーダー(ぶっちゃけ線形だと思う)
カーネル法とリッジ回帰
再生核ヒルベルト空間
再生核ヒルベルト空間の考え方でカーネルリッジ回帰を再記述してるけどそこは飛ばす
データに合わせてカーネル関数自体も学習するのが深層学習と解釈できる
https://gyazo.com/559eee2c77c2faabcbfb3bb4388510ed
...
https://gyazo.com/80bc5f45abdf998da8cc85537a1eccd5
二重降下
陰的正則化
汎化誤差バウンド
ここは飛ばす
関数クラスごとの近似性能
区分的滑らかな関数
https://gyazo.com/c00662aa291b6c2f43a9bb31b8971516
mixed-smoothness
https://gyazo.com/ab6fcaef4375e2fd5cb35ac9b67ce914
https://gyazo.com/12f8bab940df517a48c17bc1790f6794
https://gyazo.com/71e2a50728f2efb8eb73288bcf086f6e
カーネルリッジ回帰
適応的手法
深層学習
スパース推定
あらかじめ用意するものがたくさんになりすぎると現実的に無理ってなるんだな
べゾフ空間
https://gyazo.com/0e64538bcf2dbcaa22bc9756d52f21cc
https://gyazo.com/b109a40895945675dc80d9a21dd3262d
https://gyazo.com/b8de7edc8b5ffb8bdc6e4645cf40d904
過去の議論に出てきたさまざまな関数クラスはベゾフ空間の特殊なケースである
https://gyazo.com/1e444edc999820b1513eed7128bc05a0
https://gyazo.com/b6700e9f6e38b23a4a2d998ff3096101
https://gyazo.com/417c9adfc08d6f1968519f715a76e1d9
→スパース性
https://gyazo.com/73f00defbc6ede271105ea5fa0fe2372
深層NNはBesov空間の元を近似できる
Cardinal B-splineはReLU-NNでよく近似できる
https://gyazo.com/ff1bdd3dac6e15926b05534bd189f812
https://gyazo.com/e81cdac1d099c519afd93056d04d7ca8
空間的滑らかさが非均一であるとき深層学習が優越
Mixed-smooth Besov空間
非確率的勾配法は鞍点から出るのに指数時間かかる
https://gyazo.com/d7195cb5e0d60b3058f8715d9a77ec60
Neural Tangent Kernel
Mean Field
https://gyazo.com/38423f31f4c743520a0977cece288c06
Watterstein距離