BERT
#NLP
BERT は何がすごいのか?
従来より汎用性が高い事前学習(pre-training)モデル
リンク
論文
https://arxiv.org/abs/1810.04805
GitHub リポジトリ
https://github.com/google-research/bert