DL | 激活函数

基本概念

几个激活函数

relu

  • relu的优势到底是什么?
    其实其设计之初,是为了解决sigmoid和tanh的saturation问题提出的,他确实不能做到均值为0,但是这不会影响NN的性能(一方面,有BN、LN的技巧可以帮助input shift到均值为0的分布;另一方面,除非weight被正则化了(限制在很小的范围内),否则对性能的影响不大),综上,relu相比于sigmoid来说是利大于弊的。
    总结其优缺点如下:

    • 优点
      • 正向侧可以解决多层梯度的饱和的问题 & 求导迅速
      • 可以看作一个开关(说实话,不是很理解),达到某些阈值的信息才能通过(小于0的输入完全被过滤掉)
    • 缺点
  • relu是线性的,却可以当作激活函数
    首先,relu不是线性激活函数,因为线性函数的特性之一是在其定义域内: f ( a x + b y ) = a f ( x ) + b f ( y ) : f(ax+by) = af(x) + bf(y): f(ax+by)=af(x)+bf(y)
    显然,relu定义域为 [ − ∞ , ∞ ] [-\infty,\infty] [,]定义域,在这区间内并不满足


注意点

  • Q: 激活函数的设计初衷是引入非线性的映射能力,那么 ReLU是非线性的么?
  • dying relu problem in neural networks
    • relu死亡主要是因为bias是一个很大的负数,导致这整个神经元的输出小于0,就算w有权重更新也救不回来,这个神经元就“死掉”了 – 输出不变,梯度也不变
    • 通常learning rate太大会导致这个问题,小的lr可以缓解这个问题的发生频率
    • 如果去掉bias会不会也是一种很好的缓解方式:去掉bias会导致训练效果变差,因为
  • 激活函数输出是否要以0为中心会收敛得更快 谈谈激活函数以零为中心的问题
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值