自然言語処理モデルBERTが採用している双方向の学習を可能にする事前学習タスクはどれか。

MLMは文中の隠された単語(マスク)を前後の文脈から予測することで高度な意味理解を実現する。