Transformerモデルにおいて入力データの単語間の関連度を計算する仕組みはどれか。

アテンション機構(Attention)は文中のどの単語に注目すべきかを動的に計算するTransformerの核となる技術である。