饱和非线性(saturating nonlinearity)和非饱和非线性(non-saturating nonlinearity)

在AlexNet论文《 ImageNet Classification with Deep Convolutional Neural Networks》第3节中提到了饱和非线性(saturating nonlinearity)和非饱和非线性(non-saturating nonlinearity)的概念,这里做一个解释。

定义

直观定义:一个饱和的激活函数会将输出结果压缩到有限的区间。

  • 如果函数f是非饱和的,那么有:

( ∣ lim ⁡ z → − ∞ f ( z ) ∣ = + ∞ ) ∨ ( ∣ lim ⁡ z → + ∞ f ( z ) ∣ = + ∞ ) (|\lim_{z \to −\infty} f(z)|=+\infty) \lor (|\lim_{z \to +\infty} f(z)|=+\infty) (zlimf(z)=+)(z+limf(z)=+)

  • 反之,即为饱和函数。

示例

ReLU激活函数定义为 f ( x ) = m a x ( 0 , x ) f(x)=max(0,x) f(x)=max(0,x),由于 lim ⁡ z → + ∞ f ( z ) = + ∞ \lim_{z \to +\infty} f(z)=+\infty limz+f(z)=+,因此ReLU不饱和:
在这里插入图片描述

sigmoid激活函数定义为 f ( x ) = 1 1 + e − x f(x)=\frac{1}{1+e^{-x}} f(x)=1+ex1,由于它将实数压缩到区间 [ 0 , 1 ] [0,1] [0,1]之间,因此sigmoid是饱和的:
在这里插入图片描述

tanh激活函数定义为 tanh ⁡ ( x ) = 1 − e − 2 x 1 + e − 2 x \tanh(x)=\frac{1-e^{-2x}}{1+e^{-2x}} tanh(x)=1+e2x1e2x,由于它将实数压缩到区间 [ − 1 , 1 ] [−1,1] [1,1]之间,因此tanh是饱和的:
在这里插入图片描述

参考

[1] 图片来源:http://cs231n.github.io/neural-networks-1/
[2] https://stats.stackexchange.com/questions/174295/what-does-the-term-saturating-nonlinearities-mean

  • 8
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值