Transformerの計算を高速化するために、アテンション行列を完全に計算せずに近似する手法(FlashAttention等)が利用する主なハードウェア特性はどれか。

メモリ読み書きを最小限に抑え、オンチップメモリで計算を完結させる。