2020年代のAI革新の核となった、入力データの全ての部分を同時に処理し、重要な要素に「注意」を向けるアルゴリズムはどれか。

自己注意(Self-Attention)機構を持つTransformerは、並列処理に優れ、LLMの基盤となった。