活性化関数の一つで;xが0以下のときは0、0より大きいときはxを出力する関数はどれか。

ReLU(Rectified Linear Unit)は勾配消失を防ぎやすく、深層学習で標準的に使われる。