LLMに長いコンテキスト(文脈)を入力する際;メモリ使用量を抑えるために、注目すべきトークンを動的に選択する「疎な注目機構」の名称はどれか。

計算コストを入力長の2乗ではなく;より低いオーダーに抑える技術。