GPT
Generative Pre-trained Transformer:
Transformer
Generative Pre-Training
OpenAI
が
開発
した
事前学習モデル
.
Web
から収集した大量の
テキストデータ
に対して
教師なし学習
を行っている.
Transformer
の
デコーダ
と同様に
Self-Attention
を利用しているが,
エンコーダ
はないため
Source-Target Attention
はない.