素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
JDLA E資格 (エンジニア)
「JDLA E資格 (エンジニア)」の記事一覧
Transformerの「Positional Encoding」において、相対的な位置関係を学習しやすいとされる理由はどれか。
sin(pos+k)などがsin(pos)とcos(pos)の線形結合で表せるため、モデルが相対位置kを認識しやすい構造になっ…
2026年3月13日
Attentionメカニズムにおける「Attention Map(重み)」が表しているものは何か。
入力シーケンスの各要素に対する重要度(0〜1)の分布であり、モデルの判断根拠を可視化する際にも使われ…
2026年3月13日
Mask R-CNNで導入された「RoIAlign」は、RoI Poolingの何の問題を解決したか。
座標を整数に丸める(量子化)ことなく、双線形補間を用いて正確な特徴マップの値を取得することで、ピク…
2026年3月13日
「Early Stopping(早期終了)」を実行するための適切な監視対象はどれか。
検証データの誤差が下がらなくなり、上がり始めた時点が過学習の開始点とみなせるため、そこで学習を止め…
2026年3月13日
知識蒸留などで使われる、ソフトマックス関数の「温度(Temperature)」パラメータTを高くするとどうなるか。
T>1で割ることで確率差が縮まり、正解以外のクラスが持つ相対的な情報(ダークナレッジ)が現れやすくなる…
2026年3月13日
RNNの学習で、長い系列に対して勾配計算を途中で打ち切る手法を何と呼ぶか。
過去全てのステップまで遡ると計算量が膨大で勾配も不安定になるため、一定のステップ数で逆伝播を打ち切…
2026年3月13日
ResNetのボトルネックブロックにおいて、3×3畳み込みの前後で1×1畳み込みを行う理由は何か。
チャンネル数を一旦1x1で絞り(圧縮)、3x3を行い、再度1x1で戻す(復元)ことで、深い層でも計算コストを…
2026年3月13日
CNNにおける「1×1畳み込み」の主要な用途の一つはどれか。
空間サイズを変えずにチャンネル方向の線形結合を行うため、計算量を抑えつつ特徴量の次元を圧縮・調整で…
2026年3月13日
「Group Normalization」がBatch Normalizationより有利になる状況はどれか。
GNはバッチ方向に依存せず計算するため、物体検出などメモリ制約でバッチサイズを小さくせざるを得ないタ…
2026年3月13日
「ウォームアップ(Warmup)」と呼ばれる学習率スケジュールの目的はどれか。
Adamなどの適応的学習率手法でも、初期段階での急激な更新が性能悪化を招くことがあるため、徐々に学習率…
2026年3月13日
投稿のページ送り
1
…
132
133
134
…
537