Transformer
自然言語処理
(
NLP
) のタスクで成功している
機械学習
モデルの一種
2017 年に
Google
の研究者によって提案された、
深層学習
において重要なアーキテクチャの一つ
特徴は、時系列情報を処理する従来のモデルに比べ、文脈の長距離依存関係を考慮しやすく、精度が高いこと
アーキテクチャ
エンコーダとデコーダから成る
エンコーダ : 入力された文章をベクトル表現に変換
デコーダ : そのベクトル表現を元に、出力する文章を生成
Attention
Mechanism という仕組みを用いて、文脈を理解し、文章を生成
NLP タスクの他にも、
音声処理
や
画像処理
の分野でも応用されている
Transformer に基づくモデルの例
BERT
GPT
BERT2
T5
参考文献
Diffusion による Text2Image の系譜と生成画像が動き出すまで
大規模言語モデルの驚異と脅威