BERT
Bidirectional Encoder Representations from Transformers
Google
が
開発
した
事前学習モデル
.
Transformer
の
エンコーダ
を利用している.
MLM
と
NSP
を用いて
事前学習
を行う.
MLM
では
文
全体構造は見えているため,
時系列
的な
学習
を行う
言語モデル
より強力であると期待される.
さまざまな応用がある
品詞タグ付け
固有表現解析
SQuAD