HOMELv037 TransformerのAttention計算において;行列全体を計算せずに入出力の依存関係を疎にする(Sparseにする)ことで効率化する手法の総称はどれか。 2026年1月25日 長いシーケンスに対する計算コストの増大(2乗)を抑制するための工夫。 LLMが数式やパズルを解く際;「間違った推論の枝」を途中で切り捨てながら探索を行うプロンプト技術を何というか。 静止画からではなく;数枚の参照画像とテキストから高い一貫性を持つ「動画」を生成する技術の要となる仕組みはどれか。