激活函数

参考:《解析深度学习——卷积神经网络原理与视觉实践》

网址:http://lamda.nju.edu.cn/weixs/book/CNN_book.pdf

一、Sigmoid函数

缺点:大于 5(或小于 −5)部分的梯度接近 0,这会导致在误差反向传播过程中导数处于该区域的误差很难甚至无法传递至前层,进而导致整个网络无法正常训练;Sigmoid型激活函数值域的均值并非为 0 而是全为正,这样的结果实际上并不符合我们对神经网络内数值的期望(均值)应为 y0的设想。

二、tanh(x)函数

三、ReLU修正线性单元

优点:有助于随机梯度下降收敛

缺点:在 x < 0 时,梯度便为 0。换句话说,对于小于 0 的这部分卷积结果响应,它们一旦变为负值将再无法影响网络训练——这
种现象被称作“死区”。

四、LeakyReLU

 

五、参数化ReLU

参数化ReLU直接将 α 也作为一个网络中可学习的变量融入模型的整体训练过程。在求解参数化ReLU时,文献[34]中仍使用传统的误差反向传播和随机梯度下降,对于参数 α 的更新遵循链式法则.

注:效果比ReLU好,虽参数化 ReLU在带来更大自由度的同时,但也增加了网络模型过拟合的风险,在实际使用中需格外注意。

六、随机化ReLU——将α 值设定随机化

七、指数化线性单元ELU

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值