Relu (rectified linear unit)整流线性单元------可以有效防止梯度爆炸,将所有负值归零
Relu(x)神经元的输出是max(x, 0)。提⾼ReLU 的带权输⼊并不会导致其饱和,所以就不存在前⾯那样的学习速度下降。另外,当带权输⼊是负数的时候,梯度就消失了,所以神经元就完全停止了学习。
缺点是不能通过基于梯度的方法学习那些使它们激活为零的样本
其他基于RELU的变化有:渗漏整流单元(Leaky Relu),参数化整流线性单元(PRelu),ELU,SELU,CRelu,RRelu
PRelu 参数化整流线性单元:在LRelu的基础上将定值0.01变换为