モデルの「蒸留 (Distillation)」プロセスにおいて、大規模で高精度なモデル(教師)から知識を継承する軽量なモデルを何と呼ぶか。

知識の蒸留では、Teacherモデルの出力をStudentモデルが模倣するように学習し、軽量化と高速化を図る。