非线性激活

1.非线性激活的重要性

如果神经元的输出是输入的线性函数,而线性函数之间的嵌套任然会得到线性函数。如果不加如飞西安新处理,那么最终得到的仍然是线性函数。

2Po6Ogv.jpg

E2F0aw3.jpg

2.常用的非线性激活函数

Xx4iNBa.jpg

ReLu的优点

  • 运算非常简单快速
  • 由于当输入大于0时,导数永远是1,可以避免梯度消失
  • 当输入大于零时才有非零输出,而输入小于0时,输出0.更类似与生物神经元的工作原理,需要刺激才会被激活。
  • 往往能带来比使用sigmoid和tanh更佳网络性能

3.ReLu的改进

Leaky ReLu,PReLu,RReLu,ELU,SELU.

他们让ReLu在输入小于0时有少量输出,可略微改进性能,代价是速度会慢一些。

4.Swish激活函数

$f(x)=x\cdot\sigma(\beta x)$,其中$\beta$可固定为1。

在MXnet的使用。

tmp=mx.sym.sigmoid(in)
out=mx.sym.broadcast_mul(in,tmp)#将它点对点乘以输入,得到输出

转载于:https://www.cnblogs.com/cold-city/p/10459300.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值