HOMELv014 Transformerのエンコーダ部分を利用し、文脈を双方向から理解することで高い精度を出したモデルは何か。 2026年3月3日 Bidirectional Encoder Representations from Transformers。 自然言語処理の歴史を変えた、「Attention(注意)」メカニズムのみで構成されたモデルは何か。 文章生成に特化し、Transformerのデコーダ部分を大規模化させて開発されたモデルシリーズは何か。