TransformerのAttention計算において;行列全体を計算せずに入出力の依存関係を疎にする(Sparseにする)ことで効率化する手法の総称はどれか。

長いシーケンスに対する計算コストの増大(2乗)を抑制するための工夫。