HOMELv081 Transformerの「アテンション計算量(シーケンス長の2乗)」を解決するため;過去の情報を「状態ベクトル」として一定サイズで維持する、RNNとCNNを融合させたようなアーキテクチャを何というか。 2026年1月25日 長いシーケンスでも計算量が線形にしか増えず、長文処理に極めて強い次世代構造。 強化学習において;エージェントが「1つのニューラルネットワーク」で、環境の「価値」と「次の状態」と「報酬」をすべて予測しながら学習する手法はどれか。 LLMの学習において;インターネット上のデータの枯渇に対応するため、AIが生成した高品質な「教科書」のようなデータを用いて学習させる手法を何というか。