勾配消失問題を緩和するために提案された、正の領域では恒等写像となる活性化関数はどれか。

ReLU(Rectified Linear Unit)は、入力が0より大きい場合にそのまま出力するため、層が深くなっても勾配が消失しにくい特徴がある。