「Attention is All You Need」という論文で提案され;現在のLLMの基盤となっている構造はどれか。

自己注意機構(Self-Attention)を核とした革新的なアーキテクチャである。