深度学习——激活函数ReLu

通常意义下,线性整流函数指代数学中的斜坡函数,即

f(x)=max(0,x)

其中\large x是输入特征,经过线性变化W^{T}X+b之后的输出结果,比较其与0之间的大小关系,作为ReLu函数的输出

max(0,W^{^{T}}X+b)

优点:

1. 解决了gradient vanishing问题 (在正区间);
2.计算速度非常快,只需要判断输入是否大于0;
3.收敛速度远快于sigmoid和tanh.

缺点:

1.ReLU的输出不是zero-centered;
2.某些神经元可能永远不会被激活(Dead ReLU Problem),导致相应的参数永远不能被更新。有两个主要原因可能导致这种情况产生: (a) 参数初始化方式不正确,可能性较低;(b) learning rate太高导致在训练过程中参数更新太大,使网络进入这种状态。解决方法是可以采用Xavier初始化方法,避免将learning rate设置太大或使用adagrad等自动调节learning rate的算法.
 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值