素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
IBM AI Engineering Professional Certificate
「IBM AI Engineering Professional Certificate」の記事一覧
層を深くした際に勾配が極端に小さくなり、学習が進まなくなる現象を何と呼ぶか。
勾配消失は活性化関数の導関数が1より小さい場合に、層を遡るにつれ勾配が消えていく現象である。
2026年3月12日
各層の入力をミニバッチごとに平均0、分散1に調整する手法はどれか。
バッチ正規化は学習の安定化と高速化に寄与する。
2026年3月12日
物体検出において、全てのクラスの平均適合率を平均した指標はどれか。
mAP(mean Average Precision)は物体検出モデルの総合的な精度評価に用いられる。
2026年3月12日
データ間の距離に基づき、似たもの同士をグループ化する非階層的手法はどれか。
k-means法はあらかじめ指定したクラスタ数k個にデータを分類する。
2026年3月12日
学習データに含まれる特定の属性(人種や性別など)による偏りによって生じる問題を何と呼ぶか。
AIにおけるバイアスは公平性を損なう判断を下す原因となるため、監視が必要である。
2026年3月12日
複数の入力や出力を持つ複雑なモデルを構築するのに適したKerasのインターフェースはどれか。
Functional APIは層を関数として呼び出し、グラフ構造のような柔軟な接続を可能にする。
2026年3月12日
ハイパーパラメータの組み合わせを効率的に探索するため、ガウス過程などを用いる手法はどれか。
ベイズ最適化は過去の試行結果から次に探索すべき有望な値を推定する。
2026年3月12日
PyTorchで独自のニューラルネットワーク層を作成する際、継承すべき基底クラスはどれか。
すべてのニューラルネットワークモジュールはnn.Moduleを継承する必要がある。
2026年3月12日
Attention機構のみを用い、並列計算を可能にした自然言語処理の画期的なアーキテクチャはどれか。
Transformerは再帰構造を排除し、Attentionのみで系列情報を処理する。
2026年3月12日
勾配降下法において、局所解に陥るのを防ぐために導入される「慣性」のような概念はどれか。
モーメンタムは過去の勾配の方向を維持することで収束を早め、局所解を回避しやすくする。
2026年3月12日
投稿のページ送り
1
…
89
90
91
…
369