HOMELv009 MindSpore Liteにおいて、モデルの推論精度を極力落とさずにモデルサイズを削減する「Post-Training Quantization」で主に使用されるビット数はどれか。 2026年3月11日 推論時の量子化では、通常32ビット浮動小数点(FP32)を8ビット整数(INT8)に変換し、サイズ削減と高速化を図る。 転移学習(Transfer Learning)において、事前学習済みモデルの重みを固定せず、新しいタスクに合わせて微調整することを何と呼ぶか。 Pythonのジェネレータ(Generator)を定義する際に使用するキーワードはどれか。