整流线性单元(Relu)及其变种(Leaky Relu、PRelu、ELU、SELU、CRelu、RRelu)

ReLU整流线性单元在神经网络中防止梯度爆炸,但负值区域梯度消失导致学习停滞。文章介绍了其变种,如Leaky ReLU解决消失梯度问题,PRelu引入参数化斜率,ELU和SELU提供更平滑的梯度,CReLU捕获正负信息,RReLU在训练中使用随机斜率。这些变种旨在优化ReLU的性能。
摘要由CSDN通过智能技术生成

Relu (rectified linear unit)整流线性单元------可以有效防止梯度爆炸,将所有负值归零

Relu(x)神经元的输出是max(x, 0)。提⾼ReLU 的带权输⼊并不会导致其饱和,所以就不存在前⾯那样的学习速度下降。另外,当带权输⼊是负数的时候,梯度就消失了,所以神经元就完全停止了学习。

缺点是不能通过基于梯度的方法学习那些使它们激活为零的样本

其他基于RELU的变化有:渗漏整流单元(Leaky Relu),参数化整流线性单元(PRelu),ELU,SELU,CRelu,RRelu

PRelu 参数化整流线性单元:在LRelu的基础上将定值0.01变换为

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值