HOMELv048 TransformerのAttention計算において;行列の全ての要素を計算する代わりに;カーネル法を用いて近似的に高速化する手法はどれか。 2026年1月25日 入力長の2乗に比例する計算量を;線形(1乗)に抑える試み。 LLMの出力から「学習に使われた特定の文章」をそのまま引き出してしまう攻撃を何というか。 3D生成AIにおいて;たった1枚の画像から数秒で高品質な3Dモデルを生成する手法に用いられる最新の生成技術はどれか。