深層学習モデルの軽量化手法である「知識蒸留(Distillation)」において、大きなモデルを「教師」、小さなモデルを何と呼ぶか。

教師モデルの予測分布(ソフトターゲット)を生徒モデルに学ばせることで、軽量ながら高精度なモデルを作成します。