深層学習モデルのトレーニング中に、GPUメモリ不足(OOM)が発生した場合の対策として、モデルのバッチサイズを小さくする以外の有効な手法は。

勾配蓄積は、ミニバッチをさらに分割して計算し、勾配を合計してから重みを更新することで、メモリ消費を抑えつつ大きなバッチサイズ相当の効果を得る手法。