ニューラルネットワークの活性化関数「ReLU (Rectified Linear Unit)」の定義はどれか。

入力が0以下の時は0、0より大きい時はそのまま出力する関数