HOMELv084 モデルの重みを4ビット以下に量子化しつつ;学習可能な低ランク行列のみを更新することでメモリ効率を極大化した手法はどれか。 2026年1月25日 QLoRAは4ビット量子化とLoRAを組み合わせた効率的な微調整手法である。 Transformerの計算量を $O(L^2)$ から $O(L)$ に削減する「State Space Models (SSM)」を用いた代表的なモデルはどれか。 Mixture of Experts (MoE)において;各トークンの処理を担当する「Expert」を動的に選択するコンポーネントを何というか。