素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
Lv023
「Lv023」の記事一覧
オートエンコーダにおいて、中間層の次元が入力層より小さい場合、何が行われていると解釈できるか。
情報量が制限されたボトルネックを通すことで、入力データを再構成するために必要な本質的な特徴(潜在変…
2026年3月13日
双方向RNN(Bi-RNN)が適しているタスクはどれか。
過去だけでなく未来(後ろ)の文脈も参照できるため、翻訳や文章分類など、入力全体が確定しているタスク…
2026年3月13日
「1×1畳み込み」がResNetのボトルネック構造で果たしている役割はどれか。
3x3畳み込みの前に1x1で次元(チャンネル数)を圧縮し、処理後に復元することで、深い層でも計算コストを…
2026年3月13日
学習における「イテレーション(Iteration)」の意味はどれか。
バッチサイズ分のデータを処理し、誤差逆伝播を行ってパラメータを1回更新するステップを指す。
2026年3月13日
学習率のスケジューリング手法「Step Decay」の挙動はどれか。
階段状に学習率を下げていくシンプルな手法で、学習後半での微細な重み調整を可能にする。
2026年3月13日
Global Average Pooling (GAP) が全結合層の代わりに用いられる主な理由はどれか。
特徴マップの平均値をとることでパラメータ学習を不要にし、モデルを軽量化すると同時に、位置情報の解釈…
2026年3月13日
高次元の非凸最適化問題において、極小値ではないが勾配が0になる点を何と呼ぶか。
ある方向では極小だが別の方向では極大となる点で、高次元空間では局所解よりも鞍点が多く存在し、学習の…
2026年3月13日
ReLU関数に適した重みの初期化手法「Heの初期値」の標準偏差はどのように設定されるか(nは前層のノード数)。
ReLUは負側が0になるため、分散を保つにはXavierの初期値(√1/n)の2倍の分散(√2倍の標準偏差)が必要と…
2026年3月13日
最適化手法において「モーメンタム」が模倣する物理現象はどれか。
現在の勾配だけでなく、過去の移動ベクトルの慣性(勢い)を利用して、局所解からの脱出や収束の高速化を…
2026年3月13日
CNNにおいて、フィルタの重み(パラメータ)を画像全体で共有することの利点はどれか。
同じ特徴(エッジなど)は画像のどこにあっても同じフィルタで検出できるという仮定により、パラメータ数…
2026年3月13日
投稿のページ送り
1
…
305
306
307
…
570