Deep learning系列(七)激活函数

这篇博客介绍了深度学习中常见的三种激活函数:sigmoid、tanh和ReLU。sigmoid函数虽然将输入映射到[0,1],但存在梯度饱和和非中心化问题,导致训练效率低。tanh函数映射到[-1,1],同样面临梯度饱和。而ReLU激活函数因其梯度不饱和和计算速度快,极大地提高了模型的收敛速度。" 24929943,1370050,C++ dynamic_cast 强制转换的优势解析,"['C++编程', '类型转换', '多态', '程序错误检查']
摘要由CSDN通过智能技术生成

1. sigmoid激活函数

sigmoid将一个实数输入映射到[0,1]范围内,如下图(左)所示。使用sigmoid作为激活函数存在以下几个问题:

  • 梯度饱和。当函数激活值接近于0或者1时,函数的梯度接近于0。在反向传播计算梯度过程中: δ(l)=(W(l)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值