エッジデバイス向けモデルの「Quantization Aware Training (QAT)」とは何か。

推論時の量子化(低ビット化)を見越して、学習段階で量子化ノイズを含めて最適化することで、変換後の精度劣化を最小限に抑える。