BERT
Google
のJacob Devlinらの論文で発表された
自然言語処理モデル
BERT:Bidirectional Encoder Representations from Transformers の略
Transformer
という
アーキテクチャ
(構造)が組み込まれており、文章を双方向(文頭と文末)から学習することによって「文脈を読むこと」が実現
関連:
自然言語処理
BERTとは|Googleが誇る自然言語処理モデルの仕組み、特徴を解説 | Ledge.ai