素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
JDLA E資格 (エンジニア)
「JDLA E資格 (エンジニア)」の記事一覧
Transformerの「Positional Encoding」はなぜ必要か。
Transformerは並列処理を行うため、RNNのように系列順序を自然に認識できない。そのため位置情報をベクト…
2026年3月13日
セグメンテーションモデル「U-Net」のスキップ接続が結合するものは何か。
縮小パスで失われた位置情報を補完するため、対応する解像度の特徴マップを拡大パスに連結(Concatenate)…
2026年3月13日
物体検出手法「R-CNN」の主なボトルネック(欠点)は何だったか。
約2000個の領域候補それぞれに対してCNN推論を行う必要があり、処理時間が膨大だった(後にFast/Faster R-…
2026年3月13日
オートエンコーダにおいて、中間層の次元が入力層より小さい場合、何が行われていると解釈できるか。
情報量が制限されたボトルネックを通すことで、入力データを再構成するために必要な本質的な特徴(潜在変…
2026年3月13日
双方向RNN(Bi-RNN)が適しているタスクはどれか。
過去だけでなく未来(後ろ)の文脈も参照できるため、翻訳や文章分類など、入力全体が確定しているタスク…
2026年3月13日
「1×1畳み込み」がResNetのボトルネック構造で果たしている役割はどれか。
3x3畳み込みの前に1x1で次元(チャンネル数)を圧縮し、処理後に復元することで、深い層でも計算コストを…
2026年3月13日
学習における「イテレーション(Iteration)」の意味はどれか。
バッチサイズ分のデータを処理し、誤差逆伝播を行ってパラメータを1回更新するステップを指す。
2026年3月13日
学習率のスケジューリング手法「Step Decay」の挙動はどれか。
階段状に学習率を下げていくシンプルな手法で、学習後半での微細な重み調整を可能にする。
2026年3月13日
Global Average Pooling (GAP) が全結合層の代わりに用いられる主な理由はどれか。
特徴マップの平均値をとることでパラメータ学習を不要にし、モデルを軽量化すると同時に、位置情報の解釈…
2026年3月13日
高次元の非凸最適化問題において、極小値ではないが勾配が0になる点を何と呼ぶか。
ある方向では極小だが別の方向では極大となる点で、高次元空間では局所解よりも鞍点が多く存在し、学習の…
2026年3月13日
投稿のページ送り
1
…
152
153
154
…
537