「Deep Learning」Note on Swish

Sina Weibo:小锋子Shawn
Tencent E-mail:403568338@qq.com
http://blog.csdn.net/dgyuanshaofeng/article/details/80208944

这篇博客介绍比较新的激活函数——Swish,是ICLR2018 Workshop的文章。
文章的结论就是“在任意神经网络,可以使用Swish单元替换ReLU单元。”

Swish的定义和导数

定义:

Swish=f(x)=x×sigmoid(βx)=x1+eβx S w i s h = f ( x ) = x × s i g m o i d ( β x ) = x 1 + e − β x

导数:
f(x)=1×(1+eβx)x×(1+eβx)(1+eβx)2=1+eβxx(eβx)(β)(1+eβx)2=11+eβx+βx(eβx+1)βx(1+eβx)2=11+eβx+βx1+eβxβx(1+eβx)2 f ′ ( x ) = 1 × ( 1 + e − β x ) − x × ( 1 + e − β x ) ′ ( 1 + e − β x ) 2 = 1 + e − β x − x ( e − β x ) ( − β ) ( 1 + e − β x ) 2 = 1 1 + e − β x + β x ( e − β x + 1 ) − β x ( 1 + e − β x ) 2 = 1 1 + e − β x + β x 1 + e − β x − β x ( 1 + e − β x ) 2
=sigmoid(βx)+βxsigmoid(βx)βx(sigmoid(βx))2 = s i g m o i d ( β x ) + β x s i g m o i d ( β x ) − β x ( s i g m o i d ( β x ) ) 2
=sigmoid(βx)(1βxsigmoid(βx))+βSwish = s i g m o i d ( β x ) ( 1 − β x s i g m o i d ( β x ) ) + β S w i s h
=sigmoid(βx)(1βSwish)+βSwish = s i g m o i d ( β x ) ( 1 − β S w i s h ) + β S w i s h

如果熟悉sigmoid的求导,就可以快速求得。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值