深度学习常见的激活函数

一,什么的激活函数

激活函数是神经网络中对数据做非线性变换的函数。如下所示:

输入的x值,经过权值相乘合并之后再经过‘激活函数’得到一个映射值。

二,激活函数的作用

因为线性的数据表达过于单一,若没有激活函数,再多层的网络也不过是多套了几层的线性函数而已。以分类为例,线性函数只能处理线性可分的问题,对于复杂点的就无能为力了。而使用激活函数对线性数据改变之后,数据就是非线性的了。理论上网络层数足够的话可以拟合出任意函数,可以解决任何问题。

三,常用的激活函数

1,sigmoid函数

这是神经网络最出名的激活函数了,数学表达,和图像如下所示:

\phi (x)=\frac{1}{1+{e}^{-x}}    

 y\epsilon (0,1)

缺点:
1:在深度神经网络中梯度反向传递时导致梯度爆炸和梯度消失,其中梯度爆炸发生的概率非常小,而梯度消失发生的概率比较大。
2:Sigmoid 的 output 不是0均值(即zero-centered)。这是不可取的,因为这会导致后一层的神经元将得到上一层输出的非0均值的信号作为输入。 

2,Relu函数

公式如下:

Relu(x) = max(0,x)

y\epsilon (0,\infty )

函数图像和函数梯度的图像如下:

计算速度快,收敛速度快

3,tanh函数

数学表达如下:

tanh(x)=\frac{​{e}^{x}+{​{e}^{-x}}}{​{e}^{x}-{​{e}^{-x}}}

y\epsilon (-1,1)

函数图像和函数梯度的图像如下:

 

4,ELU (Exponential Linear Units) 函数

数学表达形式:

f(x) = \left\{\begin{matrix} x, if x>0 & \\ a({e}^{x}-1) , otherwise& \end{matrix}\right.

函数图像与梯度图像

ps:

1)深度学习往往需要大量时间来处理大量数据,模型的收敛速度是尤为重要的。所以,总体上来讲,训练深度学习网络尽量使用zero-centered数据 (可以经过数据预处理实现) 和zero-centered输出。所以要尽量选择输出具有zero-centered特点的激活函数以加快模型的收敛速度。
2)如果使用 ReLU,那么一定要小心设置 learning rate,而且要注意不要让网络出现很多 “dead” 神经元,如果这个问题不好解决,那么可以试试 Elu

3)少用 sigmoid,你可以试试 tanh,不过可以预期它的效果会比不上 ReLU 和 Maxout.

 

参考

https://blog.csdn.net/tyhj_sf/article/details/79932893

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一杯拿铁go

你的打赏是我更新最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值