NLP复习(一)

本文探讨了激活函数在深度学习中的关键作用,介绍了sigmoid和tanh函数的优缺点,重点聚焦ReLU及其变体LeakyReLU,强调了它们在处理非线性和梯度问题上的优势与挑战。
摘要由CSDN通过智能技术生成

激活函数:

激活函数的作用是什么:

引入非线性。如果没有激活函数,模型的输出空间是线性的。

常见的激活函数有哪些:
sigmoid激活函数:
在这里插入图片描述
sigmoid函数缺点:

当输入比较大的时候,梯度很快接近0。在网络结构较深,传过来的梯度较大的时候容易出现梯度消失。

进行指数运算,速度较慢。收敛也比较慢。

tanh函数,值域在[-1,1]之间:

 	均值为0,在特征相差较大的时候交过较好。实际应用强于sigmoid。

Relu激活函数:|

优点:
Relu得到的SGD收敛比sigmoid快。
缺点:
容易出现神经元坏死。当一个非常大的梯度流过神经元以后,容易导致失活。
所以训练时候需要使用小一点的学习率。
解决:
leakRelu激活函数。
对比sigmoid类函数主要变化是:
1)单侧抑制

2)相对宽阔的兴奋边界

3)稀疏激活性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值