自然言語処理モデル「BERT」が事前学習時に行うタスクのうち、文章中の一部の単語を隠して周辺から予測する手法はどれか。

MLMにより、BERTは文の双方向(左右両方)のコンテキストを同時に学習し、深い意味理解を実現する。