深度学习中的非线性激活函数(Sigmoid, tanh, ReLU)

  1. sigmoid
    定义: 1 1 + e − x \frac{1}{1+e^{-x}} 1+ex1
    函数图
    输出:0-1,对于一个极大的负值,输出接近0.对于一个极大的正值,输出接近1
    功能:常用于二分类的最后一层。
    弊端:当输入接近无穷大或无穷小时,输出变换小,求导(斜率)约为0,容易梯度缺失。不是原点中心对称,有可能造成梯度更新缓慢。输出总是正数。

  2. tanh
    定义: e x − e − x e x + e − x \frac{e^{x}-e^{-x}}{e^{x}+e^{-x}} ex+exexex
    函数图
    输出:-0-1,对于一个极大的负值,输出接近-1.对于一个极大的正值,输出接近1
    优点:解决了sigmoid的原点对称问题
    弊端:当输入接近无穷大或无穷小时,输出变换小,求导(斜率)约为0,容易梯度缺失。比sigmoid更多的指数运算,计算量更大。

  3. ReLU
    定义: f ( x ) = m a x ( 0 , x ) f(x)=max(0,x) f(x)=max(0,x)
    优点:容易计算
    弊端:左边的梯度为0.

  4. Leaky ReLU
    定义: f ( x ) = m a x ( 0.01 x , x ) f(x)=max(0.01x,x) f(x)=max(0.01x,x)
    优点:解决了ReLU左边梯度为0的问题
    另外别的解决方案:Exponential Linear Units (ELU)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值