Googleが開発したTransformerベースのモデルで;文の前後の両方向から文脈を理解することを特徴とするのはどれか。

Bidirectional Encoder Representations from Transformersの略。