HOMELv009 過去の勾配の二乗和を用いて学習率を個別に調整する手法はどれか。 2026年3月12日 AdaGradは頻繁に出現する特徴量の学習率を下げ、稀な特徴量の学習率を維持する。 GANにおいて、生成器(Generator)の目的は何を最大化することか。 データを中央に集めず、各ローカルデバイスで学習して重みのみを共有する手法はどれか。