GPTシリーズ(Generative Pre-trained Transformer)のモデルアーキテクチャはどれか。

GPTは文章生成(次単語予測)を目的とするため、未来の情報をマスクしたDecoderスタックを採用している。