Attention
https://www.youtube.com/watch?v=bPdyuIebXWM
#WIP
RNNSearch
Neural Machine Translation by Jointly Learning to Align and Translate
で発表された
2014年
https://arxiv.org/abs/1409.0473
ただし、この論文内では「Attention」という言葉は使われていない
代わりに
soft align
や
soft search
と呼ばれている
文脈を加味した単語ベクトルを作る
与えられているベクトルの任意の個数の集合のどこに注意をするかを計算する
翻訳の前後で、どの単語がどの単語に注目すべきなのかがわかる
/nishio/注意機構
/miyamonz/Attention
https://qiita.com/halhorn/items/c91497522be27bde17ce
従来?
Encoder-Decoder