リカレントニューラルネットワーク(RNN)の一種で、エンコーダとデコーダの間に「注意機構(Attention)」を導入することで翻訳精度を劇的に向上させたモデルはどれか。

Seq2SeqモデルにAttention機構を加えることで、長い文でも入力の重要な部分に焦点を当てて翻訳が可能になった。