Relu激活函数及其变种

ReLU是神经网络中常用的激活函数,引入非线性,提高模型表达能力。本文介绍了ReLU及其变种,如softplus、Noisy ReLU、ReLU6、Leaky ReLU、ELU和SELU。各变种在不同场景下各有优势,例如Noisy ReLU在受限玻尔兹曼机中的应用,ReLU6限制了输出上界,Leaky ReLU解决了死亡ReLU问题,ELU和SELU则提高了噪声鲁棒性和自归一化特性。
摘要由CSDN通过智能技术生成

神经网络中使用激活函数来加入非线性因素,提高模型的抽象表达能力。ReLU(Rectified Linear Unit,修正线性单元)
ReLU公式近似推导::
在这里插入图片描述
下面解释上述公式中的softplus,Noisy ReLU.
softplus函数与ReLU函数接近,但比较平滑, 同ReLU一样是单边抑制,有宽广的接受域(0,+inf), 但是由于指数运算,对数运算计算量大的原因,而不太被人使用.并且从一些人的使用经验来看,效果也并不比ReLU好.softplus的导数恰好是sigmoid函数。
在这里插入图片描述
其他relu变种:
1.Noisy ReLU
ReLU可以被扩展以包括高斯噪声(Gaussian noise):
f(x)=max(0,x+Y),Y∼N(0,σ(x))
Noisy ReLU 在受限玻尔兹曼机解决计算机视觉任务中得到应用.

2.ReLU6
ReLU上界设置: ReLU相比sigmoid和tanh的一个缺点是没有对上界设限.在实际使用中,可以设置一个上限,如ReLU6经验函数: f(x)=min(6,max(0,x))

3.Leaky ReLU
当x<0时,f(x)=αx,其中α非常小,这样可以避免在x<0时,不能够学习的情况:f(x)=max(αx,x)
称为Parametric Rectifier(PReLU),将 α 作为可学习的参数.
当 α 从高斯分布中随机产生时称为Random Rectifier(RReLU)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值