HOMELv016 モデルの精度を維持したまま;重み行列を小さな行列の積に分解して計算量を削減する手法を何というか。 2026年1月25日 行列分解(SVDなど)を用いてパラメータ数を削減する。 TransformerにおけるAttentionの計算量を削減するため;全ての単語ペアではなく一部のペアのみを見る手法はどれか。 動画生成AIにおいて;時間軸方向の連続性を保つために導入される3次元的なアテンション機構を何と呼ぶか。