神经网络中的激活函数的比较

常见激活函数
神经网络中,常见的激活函数有以下几种:

1. sigmoid

f ( x ) = 1 1 + e − x f(x) = \frac{1}{1+e^{-x}} f(x)=1+ex1
f ′ ( x ) = f ( x ) ( 1 − f ( x ) ) f^{'}(x) = f(x)(1-f(x)) f(x)=f(x)(1f(x))

2. tanh

f ( x ) = e x − e − x e x + e − x f(x) =\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}} f(x)=ex+exexex
f ′ ( x ) = ? f^{'}(x) = ? f(x)=?

  • 二者都需要指数计算
  • sigmoid和tanh都是S型的非线性激活函数,对输入做非线性映射。
  • 不同的是sigmoid将响应值限制在了(0,1),而tanh则是(-1,1).
  • 在自变量处于极大和极小值区域,导数几乎为0,在反向传播过程中,导致梯度消失,无法更新权值。

3. ReLU

f ( x ) = { x , x &gt; 0 0 , x &lt; = 0 f(x)=\left\{\begin{matrix} x,x&gt;0\\ 0,x&lt;=0 \end{matrix}\right. f(x)={x,x>00,x<=0
相对于S型函数,计算简单,在x>0区域,不存在梯度消失。
ReLU有个严重的问题,存在死区。在死区处,无法更新权值。

5. Leaky ReLU

见下图。解决ReLU死区问题,引入了一个新参数 a i a_{i} ai

6. PReLU

与Leaky ReLU类似,但是参数 a i a_{i} ai根据数据来定的
参考

7. RReLU

与Leaky ReLU类似,但是参数 a i a_{i} ai在U(I,u)中随机选择的

在这里插入图片描述

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值