モデルが学習した知識を忘れてしまう「破滅的忘却」が発生しやすいのはいつか。

特定のタスクを過度に学習させると、元々持っていた汎用的な知識が失われることがある。