激活函数总结

激活函数在神经网络中引入非线性因素,解决复杂问题。常见激活函数包括Sigmoid、Tanh、ReLU及其变体,如LReLU、PReLU和RReLU。Sigmoid和Tanh有梯度消失问题,ReLU解决了此问题但可能造成神经元死亡,LReLU等变体则尝试缓解这一问题。ELU在保持收敛速度的同时,对输入变化更鲁棒。
摘要由CSDN通过智能技术生成

激活函数的作用

  在神经网络中,激活函数的作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。
  先举一个简单的例子,在做二分类时,我们的预测值 y ^ = w T x + b \widehat{y}=w^{T}x+b y =wTx+b,其中w和b为参数,我们希望得到一个范围是(0,1)的概率值,而如果直接使用上式进行计算会导致预测值大于1或小于0,因此我们就需要套接一个激活函数,例如sigmoid函数,其值为(0,1)范围。
  再比如下面这个问题中:
在这里插入图片描述

  如上图所示,这是一个简单的线性分类问题,只需要一条直线就可以很好地分类。当我们碰到下图问题时,无法通过一条直线将样本分类出来,需要我们加入非线性因素才可以将样本分类好,而我们的激活函数就是我们要加入的非线性因素。
在这里插入图片描述

激活函数的软饱和、硬饱和、左饱和、右饱和

  假设h(x)是一个激活函数。
  1.当我们的n趋近于正无穷,激活函数的导数趋近于0,那么我们称之为右饱和。
   lim ⁡ n → + ∞ h ′ ( x ) = 0 \lim _{n\rightarrow +\infty }h'\left( x\right) =0 limn+h(x)=0
  2.当我们的n趋近于负无穷,激活函数的导数趋近于0,那么我们称之为左饱和。
   lim ⁡ n → − ∞ h ′ ( x ) = 0 \lim _{n\rightarrow -\infty }h'\left( x\right) =0 limnh(

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值