活性化関数 GELU (Gaussian Error Linear Unit) が近似的に ReLU や Dropout と関連している理由は何か。

確率的に入力を 0 にするか保持するかを考慮した期待値的な動作をする。