ニューラルネットワークで、学習の効率化や勾配消失の抑制を目的として、各層の入力を平均0、分散1に調整する手法はどれか。

バッチノーマライゼーションは、学習を安定させ、高速化するために有効な手法である。