Transformerモデルにおける「Positional Encoding」の役割は何か。

Transformer(およびViT)は自己注意機構のみで構成され、再帰結合や畳み込みのような位置の概念を持たないため、入力に位置情報をベクトルとして加算する必要がある。