HOMELv004 活性化関数の一つで;xが0以下のときは0、0より大きいときはxを出力する関数はどれか。 2026年1月25日 ReLU(Rectified Linear Unit)は勾配消失を防ぎやすく、深層学習で標準的に使われる。 不均衡データ(陽性と陰性の割合が極端に違う)の評価において;正解率(Accuracy)よりも重視すべき指標はどれか。 AIが生成したコンテンツに;人間には見えない形で識別情報を埋め込み、偽情報の拡散を防ぐ技術を何というか。