HOMELv044 GPTシリーズ(Generative Pre-trained Transformer)のモデルアーキテクチャはどれか。 2026年3月13日 GPTは文章生成(次単語予測)を目的とするため、未来の情報をマスクしたDecoderスタックを採用している。 Transformerの「Positional Encoding」において、相対的な位置関係を学習しやすいとされる理由はどれか。 CycleGANにおける「サイクル一貫性損失(Cycle Consistency Loss)」の目的はどれか。