Transformerにおいて、単語の順序情報をモデルに与える仕組みはどれか。

TransformerのSelf-Attentionは順序を認識しないため、入力埋め込みに位置情報を表すベクトルを加算する必要がある。