深度学习总结(二)——激活函数的介绍

本文介绍了深度学习中常见的激活函数ReLU、Sigmoid和Tanh,包括各自的优缺点。ReLU因其简单高效而广泛使用,但存在神经元可能死亡的问题;Sigmoid和Tanh在数据压缩和输出范围上有特点,但易饱和导致梯度消失。RNN常选用Tanh以保持数据的正负性。在实际应用中,激活函数的选择应考虑模型的深度和数据特性。
摘要由CSDN通过智能技术生成

这里写图片描述


1. ReLU函数

用ReLU代替了传统的Tanh或者Logistic。

优点:

  1. ReLU本质上是分段线性模型,前向计算非常简单,无需指数之类操作;
  2. ReLU的偏导也很简单,反向传播梯度,无需指数或者除法之类操作;ReLU不容易发生梯度发散问题,Tanh和Logistic激活函数在两端的时候导数容易趋近于零,多级连乘后梯度更加约等于0;
  3. ReLU关闭了左边,从而会使得很多的隐层输出为0,即网络变得稀疏,起到了类似L1的正则化作用,可以在一定程度上缓解过拟合。

缺点:

  1. 比如左边全部关了很容易导致某些隐藏节点永无翻身之日,所以后来又出现pReLU、random ReLU等改进;
  2. 而且ReLU会很容易改变数据的分布,因此ReLU后加Batch Normalization也是常用的改进的方法。

2. Sigmoid函数

优点:

  1. 输出范围有限,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值