Transformerの「Positional Encoding」において、相対的な位置関係を学習しやすいとされる理由はどれか。

sin(pos+k)などがsin(pos)とcos(pos)の線形結合で表せるため、モデルが相対位置kを認識しやすい構造になっている。