长短时记忆网络(LSTM)

在文本分类中,CNN由于主要提取的是局部特征而忽略了global特征,这容易造成一次多义的现象,进而对文本分类的精度产生一定的影响,而LSTM是RNN的一种变形,其处理的输入是序列化的输入,RNN由于容易更长久的记忆能力,容易造成梯度消失,所以可以利用lstm模型来防止序列化输入在传输时造成的梯度消失现象。利用BPTT算法来优化参数。

 

由于RNN能学习任意时间长度序列的输入,但随着输入的增多,难以学习到连接之间的关系,产生长依赖问题,进而会发生梯度消失或者梯度爆炸现象。LSTM能克服RNN的以上问题,双向其核心思想是记忆细胞和门机制。如图所示,门机制中各个门和记忆细胞的表达式:

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值