TransformerのAttention計算において;行列の要素に「位置の近さ」に応じた重みを加える手法を何というか。

固定の位置番号ではなく;単語間の距離を重視する。