Sigmoid、Tanh、ReLu 这三个激活函数有什么缺点或不足,有没改进的激 活函数?

Sigmoid、Tanh、ReLu 这三个激活函数有什么缺点或不足,有没改进的激
活函数?
答:
sigmoid 缺点:若激活值很大的时候或者很小,激活函数在其区域梯度很小使
得训练速度很慢。
Tanh 缺点:同上。
Tanh 优点:数据类似于集中于零左右。
ReLU 缺点:在零的时候不可导,若激活值小于零,梯度为零,使得训练速度
很慢,不过这种情况很少发生,有足够多的神经元使得其 z 值大于零。
改进:采用含虚弱的 ReLU 激活函数,即若小于零时,也让其有点梯度。比如
小于零时,激活函数为:0.01Z
激活函数总结

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值