HOMELv009 Googleが開発したTransformerベースのモデルで;文の前後の両方向から文脈を理解することを特徴とするのはどれか。 2026年1月25日 Bidirectional Encoder Representations from Transformersの略。 浮動小数点の精度を32ビットから16ビットや8ビットに落として;計算量やメモリを削減する手法はどれか。 2つの確率分布の「違い」を測るために用いられる指標はどれか。