HOMELv024 Transformerの「Positional Encoding」はなぜ必要か。 2026年3月13日 Transformerは並列処理を行うため、RNNのように系列順序を自然に認識できない。そのため位置情報をベクトルとして加算する。 セグメンテーションモデル「U-Net」のスキップ接続が結合するものは何か。 GPTシリーズのような「自己回帰(Autoregressive)モデル」の特徴はどれか。