注意機構(Attention)を用いて、入力データの重要な部分を強調して学習するモデルはどれか。

Transformerは自己注意(Self-Attention)により文脈内の重要な関係性を抽出する。