BERTの事前学習において、一部の単語を隠して予測させるタスクを何と呼ぶか。

MLMは文中のトークンをマスクし、文脈からその単語を当てさせる学習手法である。