HOMELv011 人間のフィードバックを反映させて、AIモデルの出力が人間の価値観や意図に沿うように最適化する学習手法はどれか。 2026年3月8日 人間のフィードバックによる強化学習(RLHF)はAIのアライメントに不可欠な技術である。 生成AIに対して悪意のある入力を与え、開発者が意図しない動作や情報の漏洩を引き起こさせる攻撃手法を何というか。 デザイン思考のプロセスにおいて、課題の「発散」と「収束」を2回繰り返す思考フレームワークを何というか。