Transformerの「Positional Encoding」はなぜ必要か。

Transformerは並列処理を行うため、RNNのように系列順序を自然に認識できない。そのため位置情報をベクトルとして加算する。