ニューラルネットワークの過学習を防ぐために、特定の層の出力を平均0、分散1に正規化する手法はどれか。

Batch Normalizationは学習の安定化と高速化、さらに正則化の効果も提供します。