自然言語処理の歴史を変えた、「Attention(注意)」メカニズムのみで構成されたモデルは何か。

並列処理が可能で、現在のLLMの基礎となっている。