素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
Lv033
「Lv033」の記事一覧
CNNの「重み共有(Weight Sharing)」によって得られるメリットはどれか。
画像全体で同じフィルタ(カーネル)を使い回すことで、パラメータを削減しつつ、位置によらない特徴検出…
2026年3月13日
ソフトマックス関数が出力する各要素の値の範囲はどれか。
確率として解釈するため、各クラスの出力は0〜1の間に収まり、総和が1になる。
2026年3月13日
高次元空間の最適化において、局所解よりも問題になりやすい点は何か。
多くの方向で極小かつ一部の方向で極大となる鞍点付近では、勾配が平坦になり学習が停滞しやすい。
2026年3月13日
Layer Normalization(層正規化)の特徴はどれか。
バッチサイズに依存せず、個々のデータごとに正規化を行うため、RNNやバッチサイズが小さい場合に有効。
2026年3月13日
RNNの勾配消失問題において、勾配が消失する主な要因は何か。
過去に遡るにつれて、重み行列や活性化関数の微分(
2026年3月13日
ドロップアウトは、一種の何と解釈できるか。
ドロップアウトによりランダムに異なるサブネットワークが形成されるため、それらの平均をとるアンサンブ…
2026年3月13日
ミニバッチ学習において、バッチサイズを小さくすることの副作用はどれか。
サンプル数が少ないため勾配の方向がばらつくが、逆にそのノイズが局所解からの脱出を助ける場合もある。
2026年3月13日
CNNにおけるプーリング層がもたらす「平行移動不変性(Translation Invariance)」とは何か。
プーリングで情報を要約することで、微小な位置ズレを吸収し、ロバストな特徴抽出を可能にする。
2026年3月13日
回帰問題におけるニューラルネットワークの損失関数として最も一般的なものはどれか。
予測値と正解値の差の二乗を最小化することが、ガウスノイズを仮定した最尤推定に対応する。
2026年3月13日
ReLU関数のx=0における微分の扱いは通常どうされるか。
数学的には微分不可能だが、実装上は0(または1)として扱うことで勾配降下法を適用可能にしている。
2026年3月13日
投稿のページ送り
1
…
19
20
21
…
111