ディープラーニング
Deep Learning/深層学習
ニュース
GPUに比べて最大15倍高速な市販CPU向けのディープラーニングアルゴリズムが開発される
https://gigazine.net/news/20210409-rice-intel-optimize-ai-commodity/
DapuStor、ディープラーニング技術を駆使したSSDコントローラ
https://pc.watch.impress.co.jp/docs/news/1306907.html
学習
https://www.youtube.com/watch?v=2R7CurdWmSY
Deep Learning入門:マルチタスク学習
https://gyazo.com/4f56860221b8287d3fc283e62bc69c4d
グリーンバック不要で前景を精密に抜き出す、深層学習を用いたAlpha Matting技術「HAttMatting」
https://shiropen.com/2020/07/04/53618/
#セマンティックセグメンテーション
#物体検出
#画像認識
ディープラーニングの父
ヤン・ルカン
ジェフリー・ヒントン
ヨシュア・ベンジオ
----
from S.『相対化する知性』
機械学習という技術では、入力から出力をつなぐ処理を、データから学習する。入力と出力のペア、すなわち「教師データ」がたくさん与えられれば、その入出力の関係をモデル化し(これを学習するという)、未知の入力を入れると自動的に出力を出せるようになる(これを推論するという)。こうした学習や推論を行うようなプログラムは人間が書く。ディープラーニングの出現前までは、入出力をモデル化するのにシンプルな関数(たとえば線形な関数)を用いていたため、実用上、役立つ場面は限られていた(たとえば、メールに含まれる単語からスパムかどうかを見分ける)。
#機械学習
ところが、ディープラーニングでは、この入出力の関係をモデル化するのに、「深い」階層を持った関数を用いる。この場合の深いというのは、一つではなく複数の関数を用い、互いの入力と出力をつなぎあわせて、直列につないだものを作り、それを一つの関数として扱うということである。深い階層を持った関数は「表現力」が高く、非線形で複雑なさまざまな入出力関係を表すことができる。人間の脳の神経回路網は深い階層構造をもっており、何十年も昔から、こうした深い階層を持った関数(通常、ニューラルネットワークと呼ばれる)を使うことは有望であると信じられてきたものの、これまでうまくいかなかった。今になってみると、それは主にデータの量と計算機のパワーが足りなかったからであった。2012年にトロント大学のジェフリー・ヒントンらによって画像認識でディープラーニングの手法が非常に高い精度性能を発揮することが示されて以降、近年では、入出力をつなぐさまざまなつなぎかた(ニューラルネットワークのアーキテクチャー)や、教師データから効率的に関数を推定するための手法(最適化の方法)がたくさん発見され、急速にその技術が進んでいる。
#ジェフリー・ヒントン
#トロント大学
#メンタルモデルによる動的照合と境界制御の原理
ディープラーニングは、非常に汎用性が高い技術である。その汎用性の高さと技術の基盤性から考えて、歴史的には、トランジスタ(電子回路・半導体)、あるいは、インターネットやエンジン(内燃機関)、電気に比肩しうるくらいの発明・発見ではないだろうか。実際、有名なディープラーニングの研究者であり、教育や社会実装を主導してきたアンドリュー・エンは、さまざまなインタビュー記事で「人工知能は21世紀の新しい電気である」と言っている。
#アンドリュー・エン