素早く問題を解いてInput⇔Outputを繰り返し!
会員レベル
ログイン
メンバーシップアカウント
会員レベル
ログイン
メンバーシップアカウント
HOME
Lv035
「Lv035」の記事一覧
AIが生成したデータ(合成データ)だけで次のAIを繰り返し学習させると;モデルの多様性が失われ崩壊する現象を何というか。
現実のデータ分布から乖離し;生成物の質が極端に劣化するリスク。
2026年1月25日
知的財産権の議論において;AIが学習したデータに含まれる「個人の作風(スタイル)」は原則としてどう扱われるか。
著作権は具体的な表現を保護するものであり;抽象的な「作風」自体は保護対象外である(2026年時点の解釈…
2026年1月25日
学習データが少ない場合に;AIが「どのデータにラベルを付けるべきか」を選択して人間に提示する手法を何というか。
効率的に学習を進めるため;不確実性の高いデータを優先的に人間にラベリングさせる。
2026年1月25日
AIのモデルサイズを大きくするほど性能が向上するという「スケーリング則」を維持するために不足が懸念されている資源はどれか。
計算量、データ量、電力のすべてが今後のAI発展における制約要因となり得る。
2026年1月25日
リッチ・サットンが提唱した;「計算力の向上が最終的に人間の手作業による設計を凌駕する」という考え方を何というか。
計算量に依存した汎用的な手法が;ドメイン知識を用いた特定手法に勝利し続けていることを指す。
2026年1月25日
グラフニューラルネットワーク(GNN)において;ノード間で情報をやり取りして特徴を更新する操作を何というか。
隣接ノードからの情報を集約し;自身の状態を更新するプロセス。
2026年1月25日
2024年に成立した「EU AI法(AI Act)」において;最も厳しい規制対象となる「許容できないリスク」の例はどれか。
法執行目的などの特定例外を除き;プライバシー侵害のリスクから原則禁止される。
2026年1月25日
画像生成AIにおいて;U-Netの代わりにTransformerブロックを用いたアーキテクチャ(DiT)の名称はどれか。
Soraなどの最新モデルでも採用されている;拡散モデルとTransformerを融合させた構造。
2026年1月25日
Transformerの推論時において;過去の計算結果を再利用することで計算量を削減するメモリ領域を何というか。
各デコードステップでの重複計算を避け;推論の効率化を図る。
2026年1月25日
LLMの推論を高速化するために;小さなモデルで下書きを作成し大きなモデルで検証する手法はどれか。
ドラフトモデルを用いて並列的に検証することで;精度を維持しつつ推論速度を向上させる。
2026年1月25日
投稿のページ送り
1
…
49
50
51
…
111