HOMELv057 LLMに長いコンテキスト(文脈)を入力する際;メモリ使用量を抑えるために、注目すべきトークンを動的に選択する「疎な注目機構」の名称はどれか。 2026年1月25日 計算コストを入力長の2乗ではなく;より低いオーダーに抑える技術。 強化学習において;エージェントが「最適な行動」を直接学習するのではなく、「自分の行動が良いか悪いか」を評価する「Critic」と協力して学習する手法はどれか。 ニューラルネットワークのパラメータを削減する際;「重みの値」ではなく「重み行列の階数(ランク)」を意識して圧縮する手法を何というか。