素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
JDLA E資格 (エンジニア)
「JDLA E資格 (エンジニア)」の記事一覧
TransformerのPositional Encodingにおいて、位置情報の計算に使われる関数はどれか。
周期関数であるsin/cosを用いることで、相対的な位置関係を学習しやすくし、任意の長さに対応可能にしてい…
2026年3月13日
自然言語処理における「ストップワード」とは何か。
一般的な前処理として、頻出しすぎて特徴とならない単語や助詞などを除去することがある。
2026年3月13日
画像データに対するData Augmentation(データ拡張)として不適切なものはどれか。
データ拡張は「画像を変形させてもラベル(正解)は変わらない」前提で行うため、ラベル自体を変えてはい…
2026年3月13日
CNNの「重み共有(Weight Sharing)」によって得られるメリットはどれか。
画像全体で同じフィルタ(カーネル)を使い回すことで、パラメータを削減しつつ、位置によらない特徴検出…
2026年3月13日
ソフトマックス関数が出力する各要素の値の範囲はどれか。
確率として解釈するため、各クラスの出力は0〜1の間に収まり、総和が1になる。
2026年3月13日
高次元空間の最適化において、局所解よりも問題になりやすい点は何か。
多くの方向で極小かつ一部の方向で極大となる鞍点付近では、勾配が平坦になり学習が停滞しやすい。
2026年3月13日
Layer Normalization(層正規化)の特徴はどれか。
バッチサイズに依存せず、個々のデータごとに正規化を行うため、RNNやバッチサイズが小さい場合に有効。
2026年3月13日
RNNの勾配消失問題において、勾配が消失する主な要因は何か。
過去に遡るにつれて、重み行列や活性化関数の微分(
2026年3月13日
ドロップアウトは、一種の何と解釈できるか。
ドロップアウトによりランダムに異なるサブネットワークが形成されるため、それらの平均をとるアンサンブ…
2026年3月13日
ミニバッチ学習において、バッチサイズを小さくすることの副作用はどれか。
サンプル数が少ないため勾配の方向がばらつくが、逆にそのノイズが局所解からの脱出を助ける場合もある。
2026年3月13日
投稿のページ送り
1
…
142
143
144
…
537