HOMELv019 Layer NormalizationがBatch Normalizationと異なる最大の点は何か。 2026年4月3日 同一サンプルの各隠れ層ユニット間で正規化するため、RNNや小バッチに強い。 データの偏りを補正するために、少ない方のクラスのデータを複製して増やす手法はどれか。 行列 A が正則であれば、その行列式 det(A) と逆行列の行列式 det(A^-1) の積はどうなるか。