BERTモデルのアーキテクチャの基礎となっているのは、Transformerのどの部分か。

BERT(Bidirectional Encoder Representations from Transformers)は、TransformerのEncoder部分を積層して双方向の文脈を学習するモデルである。