ニューラルネットワークにおいて、特定の層の出力を次の層に渡す前に平均0、分散1に調整する技術はどれか。

Batch Normalizationは学習の安定化と高速化に大きく寄与します。