MindSpore Liteにおいて、モデルの推論精度を極力落とさずにモデルサイズを削減する「Post-Training Quantization」で主に使用されるビット数はどれか。

推論時の量子化では、通常32ビット浮動小数点(FP32)を8ビット整数(INT8)に変換し、サイズ削減と高速化を図る。