Relu会导致神经元死亡,输出值具有偏移现象(输出均值恒大于零),偏移现象和神经元死亡会影响网络的收敛性。他的另一个性质的提供神经网络的稀疏表达能力。
PRelu:
其负半轴斜率可被学习 ,原文献建议初始化
a
l
p
h
a
alpha
alpha为0.25,不采用正则,但是这要根据具体数据和网络,通常情况下使用正则可以带来性能提升。与Relu比起来,PRelu收敛速度更快,因为其输出均值更接近0,使SGD更接近natural gradient。但是也有说法,PRelu和Relu实际效果没有差异,可以无脑用Relu
激活函数总结:Relu及其变体
最新推荐文章于 2022-09-29 11:26:28 发布