ニューラルネットワークにおいて、特定の層の出力を平均0、分散1に正規化し、かつ学習可能なパラメータでスケール調整する手法はどれか。

バッチ正規化は学習の高速化と内部共変量シフトの抑制に寄与する。