激活函数篇

1.激活函数的发展

sigmoid 会饱和,造成梯度消失 --》ReLU

ReLU 负半轴是死区,梯度为0 --》LeakyReLU, PReLU

强调梯度和权值分布的稳定性 --》ELU, 以及较新的SELU

网络结构太深,梯度无法传播 --》highway

干脆不要highway参数,变成残差 --》ResNet


2.激活函数的特性:

  1. 非线性:导数不是常数。这是多层神经经网络的基础,保证多层网络不退化成单层线性网络。也是激活函数的意义所在。
  2. 几乎处处可微:保证了优化过程中,梯度的可计算性。(SGD无法收敛到梯度接近0的位置因此有限点处不可微影响不大)
  3. 计算简单:激活函数在神经网络向前的计算次数与神经元的个数成正比 --》ReLU
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值