RReLU:受限激活函数的经验验证.

使用ReLU等非饱和的激活函数能够缓解梯度消失/爆炸问题,并加速收敛。有些研究认为ReLU的表现得益于其输出是稀疏的,即大约有一半的输出为$0$(对应输入为负值)。 作者在数据集CIFAR-10/CIFAR100上对ReLU族激活函数进行实验,实验结果表明稀疏性并不是关键,通过对负半轴增加较小的负值能够提高表现。

RReLU全称是Randomized Leaky ReLU,是在kaggle竞赛 National Data Science Bowl (NDSB) 上被提出的。其表达式如下:

\[\text{RReLU}(x) = \begin{cases} x, & x≥0 \\ \alpha x, & x<0 \end{cases}\]

注意到上述训练和测试采用不同设置的方式类似于Dropout,通过引入随机性增加了正则化的效果。

实验结果如下,通过实验作者得出以下几个结论: