RNNの学習で、長い系列に対して勾配計算を途中で打ち切る手法を何と呼ぶか。

過去全てのステップまで遡ると計算量が膨大で勾配も不安定になるため、一定のステップ数で逆伝播を打ち切る近似手法。