神经网络常用的激活函数

神经网络常用的激活函数

1 恒等函数
f(z) = I(z)=z
2 sigmoid 函数
这个函数通常是用在返回0到1之间的值
f(z) = 1/(1+exp(-z))
3 tanh(双曲正切)激活函数
双曲正切是一条-1~1的S形曲线:
f(z) = tanh(z)
图像如图在这里插入图片描述
4 ReLu(整流线性单元)激活函数
f(z) = max(0,z)
python 的表达形式为np.maximum(x,0,x)
5 Leaky ReLU
f(x) = { az(z<0),z (z>0)}
a一般约为0.01,这个取值的目的是使得x>0和x<0之间的差异更加明显。
6 Swish 激活函数
f(x)=x⋅sigmoid(βx)
β是个常数或可训练的参数.Swish 具备无上界有下界、平滑、非单调的特性。
Swish 在深层模型上的效果优于 ReLU。例如,仅仅使用 Swish 单元替换 ReLU 就能把 Mobile NASNetA 在 ImageNet 上的 top-1 分类准确率提高 0.9%,Inception-ResNet-v 的分类准确率提高 0.6%。参考来源激活函数(ReLU, Swish, Maxout)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值