BERT
GoogleのJacob Devlinらの論文で発表された自然言語処理モデル
BERT:Bidirectional Encoder Representations from Transformers の略
Transformerというアーキテクチャ(構造)が組み込まれており、文章を双方向(文頭と文末)から学習することによって「文脈を読むこと」が実現
関連:自然言語処理
BERTとは|Googleが誇る自然言語処理モデルの仕組み、特徴を解説 | Ledge.ai