LLMのコンテキストウィンドウを拡大するために、長い系列に対してアテンションをスライドさせる手法はどれか。

特定の範囲内のみアテンションを計算することで、計算量を系列長に対して線形に保つ。