素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
Lv030
「Lv030」の記事一覧
本番環境のAIモデルを2つ用意し;一部のユーザーに新モデル(B);残りに旧モデル(A)を見せて効果を比較する手法はどれか。
実データに基づきモデルの改善を確認する。
2026年1月25日
学習が進むにつれて学習率を徐々に小さくしていくことで;最適解の周辺で振動するのを防ぐ手法を何というか。
収束を安定させるための一般的なテクニック。
2026年1月25日
AIプロジェクトで;「精度80%」を達成した後に「90%」へ上げるためのコストが;それまでの数倍かかる現象を何というか。
最後の数パーセントの向上には膨大なデータと試行が必要になる。
2026年1月25日
正規分布において;平均から「標準偏差の3倍(3シグマ)」以上離れたデータが現れる確率は約何%か。
極めて稀なケースであり;異常検知の基準の一つとなる。
2026年1月25日
木構造のモデルを直列に繋ぎ;前の木の「残差(予測ミス)」を次の木で修正するように学習する手法はどれか。
XGBoostやLightGBMなどの高性能アルゴリズムの基盤。
2026年1月25日
画像の中に「何があるか(What)」だけでなく;「どこにあるか(Where)」をピクセル単位のマスクで示すタスクはどれか。
個別の物体を識別しつつ;正確な形まで抽出する。
2026年1月25日
日本の著作権法第30条の4において;AIの学習のために著作物を利用できる条件として「( )を目的としない場合」と定められているか。
「鑑賞」目的ではなく;「解析」目的であれば原則自由。
2026年1月25日
重みの行列を「低ランクの行列」の積に近似し;学習対象を劇的に減らすPEFTの代表的手法はどれか。
現代のLLMカスタマイズにおいて最も普及している手法。
2026年1月25日
LLMに非常に長い指示を与えた際;「文章の最初と最後」の情報は覚えているが;真ん中を忘れてしまう現象を何というか。
アテンションの性質上;長い文脈の中央付近の感度が落ちる問題。
2026年1月25日
製品やサービスの価格が10%上がった時、需要が20%減った。この時、需要の価格弾力性の値はいくらか。
変化率の比(20% / 10% = 2)で計算される。1より大きい場合は「弾力性がある」という。
2026年1月25日
投稿のページ送り
1
…
182
183
184
…
268