LLMに長いコンテキスト(文脈)を入力する際;メモリ使用量が入力長の2乗で増える問題を解決する注目技術はどれか。

計算を分散・分割して処理し;数百万トークンの入力を可能にする。