高性能な大型モデル(教師モデル)の出力を模倣させることで、同等の能力を持つ軽量な小型モデル(生徒モデル)を作成する手法はどれか。

知識蒸留(Knowledge Distillation)は、計算リソースの限られた環境で高性能なAIを動かすのに有効である。