勾配消失問題を緩和するために提案された、正の部分では恒等写像として振る舞う活性化関数はどれか。

ReLU(Rectified Linear Unit)はx>0でx、x<=0で0を出力し、層が深くなっても勾配が消失しにくい。