HOMELv004 Attentionメカニズムが解決したSeq2Seqモデルの課題はどれか。 2026年3月13日 Encoderの全出力を固定長ベクトルに押し込まず、Decoderが各ステップで入力の重要な部分を動的に参照できるようにした。 自然言語処理における「Word2Vec」のSkip-gramモデルが予測するものは何か。 Transformerアーキテクチャの最大の特徴はどれか。