素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
Lv084
「Lv084」の記事一覧
2つの確率分布 $P$ と $Q$ の「近さ」を測る際;対象性がなく $P$ から見た $Q$ の情報損失量を表す指標はどれか。
カルバック・ライブラー情報量は分布間の差異を測る非対称な指標である。
2026年1月25日
OpenAIの初期の成功を支えた;方策の更新幅を制限することで学習の安定性を劇的に向上させたアルゴリズムはどれか。
PPOは信頼領域外への極端な更新を抑えることで;安定した強化学習を実現する。
2026年1月25日
AIモデルから特定の著作物や個人の記憶を「削除」する際;モデル全体を再学習せずに特定の重みだけを調整する研究分野はどれか。
著作権やプライバシーの保護を目的に;学習済みモデルから特定知識を消去する。
2026年1月25日
LLMの外部知識活用において;「検索結果の文書」そのものではなく;その文書内の「特定のチャンク」を抽出して参照する技術を何というか。
RAGは質問に関連する情報を外部から検索し;回答の根拠として利用する。
2026年1月25日
3D Gaussian SplattingがNeRFと比較して圧倒的に優れている点はどれか。
3D Gaussian Splattingは微分可能な点群を用いることで高速な描画を可能にした。
2026年1月25日
AIモデルが運用中に;特定の入力に対してのみ異常な挙動を示す「エッジケース」を効率的に収集・再学習するサイクルを何というか。
実環境での失敗を学習データに還元し;継続的にモデルを強化する仕組み。
2026年1月25日
EU AI法において;「汎用AI(GPAI)モデル」の提供者が負うべき義務のうち;学習データの要約を公開することを何というか。
モデルの構築に使われたデータに関する透明性を確保するための要件である。
2026年1月25日
モデルの重みを4ビット以下に量子化しつつ;学習可能な低ランク行列のみを更新することでメモリ効率を極大化した手法はどれか。
QLoRAは4ビット量子化とLoRAを組み合わせた効率的な微調整手法である。
2026年1月25日
Mixture of Experts (MoE)において;各トークンの処理を担当する「Expert」を動的に選択するコンポーネントを何というか。
ルーターが入力に応じて最適なExpertニューラルネットワークに処理を振り分ける。
2026年1月25日
Transformerの計算量を $O(L^2)$ から $O(L)$ に削減する「State Space Models (SSM)」を用いた代表的なモデルはどれか。
Mambaは状態空間モデルをベースに推論の高速化と長文処理を両立したモデルである。
2026年1月25日
投稿のページ送り
1
2
…
5