BERT(Bidirectional Encoder Representations from Transformers)の事前学習タスクの一つである「Masked LM」の説明として正しいものはどれか。

Masked LMは、入力文の一部をマスクし、その隠された単語を双方向の文脈から予測させることで言語理解を深めるタスクである。