自然言語処理における「Transformer」モデルが採用している、入力文中の単語間の関係性を捉えるための機構はどれか。

Attention(注意)機構は、文中のある単語が他のどの単語と強く関連しているかを重み付けして計算する仕組みである。