对不同激活函数在神经网络中的比较分析

针对当下几种神经网络中的激活函数进行比较对比。

sigmoid激活函数

表达式为 σ(x)=1(1+ex) ,其值域为(0,1),如下图所示
sigmoid
其优点为:

  • 求导方便, σ(x)=σ(x)(1σ(x))

  • 结果具有很好的解释性,因为其值域范围只在0到1之间,因此可以解释为概率。

缺点为:

  • 太容易饱和了,因为在 σ(x) 接近0或1时,导数几乎为0。因此会导致收敛速度较慢。特别地,当初始化权值过大时,在开始阶段就会饱和,从而无法迭代更新;
  • 当输入为0时,结果不为0。我们更希望当输入为0时,输出也为0。

tanh激活函数

表达式为 tanh(x)=2σ(2x)1 ,实际上就是对sigmoid函数进行变换得到的,其值域为(-1,1),如下图所示
tanh
其优点为:

  • 求导也相对容易, tanh(x)=1tanh2(x)
  • 是奇函数,也就是当输入为0时,输出也为0。

缺点为:

  • 存在和sigmoid函数同样的饱和问题。

ReLU函数

表达式为 f(x)=max(0,x) ,值域为 (0,+) ,如下图所示:
relu
其优点为:

  • 函数表达式求导都特别简单, f(x)=
  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值