4ab46088eec4,001
http://nhiro.org.s3.amazonaws.com/d/c/dc2ba3a041aec4380a6d26a56d49e444.jpg https://gyazo.com/dc2ba3a041aec4380a6d26a56d49e444
(OCR text)
2
BERT(2018)
自然言語処理
においてPre-trainingできるモデル
を作った。
Pre-trainingしたモデルに出力層を付け加えるだ
けで、言語理解系の11種類のタスクにおいて良い
成績を出すことができた。
Pre-training of Deep Bidirectional Transformers for Language Understanding