リカレントニューラルネットワーク(RNN)の学習において、過去の長い情報を忘れてしまう「勾配消失問題」の主な原因はどれか。

活性化関数の微分の積が繰り返されることで、初期層への勾配が極端に小さくなります。