HOMELv060 LLMの出力品質を維持したまま、推論時のメモリ消費量を大幅に削減する「KVキャッシュの量子化」において;重要なトークンだけ高い精度を残す手法を何というか。 2026年1月25日 長い文脈(コンテキスト)を扱う際のハードウェア的な限界を克服する。 強化学習において;エージェントが「直接的な報酬」が得られない間も;「どれだけゴールに近づいたか」という補助的な報酬を与える手法を何というか。 ニューラルネットワークの「情報の流れ」を情報の幾何学(情報のメトリック)として捉え;学習を最適化する理論を何というか。