エッジデバイスでの推論用に、モデルのサイズを削減し高速化するために、浮動小数点の精度を下げる手法を何と呼ぶか。

量子化(例:FP32からINT8への変換)により、精度をわずかに犠牲にして推論速度とメモリ効率を劇的に向上させる。