HOMELv038 活性化関数「Mish」の定義式はどれか(softplus(x) = ln(1+e^x))。 2026年3月13日 Swishに似た形状だが、より滑らかで、多くのタスクでReLUやSwishを上回る性能が報告されている関数。 「スペクトラル正規化(Spectral Normalization)」は主にどのモデルの安定化に使われるか。 深層学習の重み初期化において、LSUV(Layer-Sequential Unit-Variance)初期化とは何か。