素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
Lv013
「Lv013」の記事一覧
多層パーセプトロンにおいて、層を増やすことの主な利点は何か。
深い層を持つことで、単純な特徴を組み合わせて、より高度な概念やパターンを階層的に学習できる(表現力…
2026年3月13日
学習時のバッチサイズを極端に大きくした場合に懸念される現象はどれか。
バッチサイズが大きいと勾配のノイズが減りすぎて鋭い最小値に収束しやすくなり、未知のデータに対する性…
2026年3月13日
オートエンコーダの構造的な特徴はどれか。
入力を潜在空間に圧縮(エンコード)し、それを復元(デコード)する構造のため、入出力の次元は一致する。
2026年3月13日
ソフトマックス関数の出力値の総和は常にいくつになるか。
ソフトマックス関数は出力を確率分布として扱えるように正規化するため、すべてのクラスの確率を足すと1に…
2026年3月13日
2クラス分類において、出力層の活性化関数にシグモイド関数を用いた場合の損失関数はどれか。
2値分類(0か1か)の確率評価には、バイナリ交差エントロピー(対数損失)が最適化に適している。
2026年3月13日
RMSProp最適化手法が解決しようとした課題はどれか。
RMSPropは過去の勾配の二乗の指数移動平均を用いることで、学習率の急激な減衰を防ぎつつ適応的に調整する…
2026年3月13日
「早期終了(Early Stopping)」を行う基準となるデータはどれか。
学習データへの誤差は減り続けても、検証データへの誤差が下がらなくなった(上がり始めた)時点で学習を…
2026年3月13日
活性化関数「ハイパーボリックタンジェント(tanh)」の出力範囲はどれか。
tanhはシグモイド関数を上下に引き伸ばしたような形状で、出力が0を中心とするため学習が効率的になる場合…
2026年3月13日
ReLU関数を用いるネットワークにおいて、重みの初期値として推奨されるものはどれか。
ReLUは負の領域で0になるため、Xavierの初期値よりも分散を大きく設定したHeの初期値(√2/n)が適している…
2026年3月13日
「普遍性定理(Universal Approximation Theorem)」が示唆する内容はどれか。
シグモイドなどの非線形活性化関数を持つ隠れ層が少なくとも1層あれば、任意の連続関数を任意の精度で近似…
2026年3月13日
投稿のページ送り
1
…
841
842
843
…
1,318