ニューラルネットワークの学習において、特定の層の出力を平均0、分散1に正規化することで、内部共変量シフトを抑制し学習を高速化する手法はどれか。

バッチ正規化は、学習の安定性を高め、より高い学習率の使用を可能にします。