大規模言語モデルの事前学習において;「次の単語の予測」以外のタスクとして;文の中の順序を入れ替えて元に戻させるようなタスクを何というか。

T5などで採用された;文脈の構造をより深く理解させるための事前学習タスク。