NLP 总结

LSTM(长短期记忆网络)是一种递归神经网络,通过遗忘门、输入门和输出门来处理长期依赖问题。遗忘门决定哪些历史信息应该被遗忘,输入门控制新信息的融合,输出门则决定当前的输出如何基于记忆单元。激活函数通常使用sigmoid确保门控效果。LSTM结合CRF(条件随机场)用于寻找最佳路径,从局部最优到全局最优,以实现更优的序列标注任务。
摘要由CSDN通过智能技术生成

LSTM在这里插入图片描述

三个门控制对前一段信息、输入信息以及输出信息的记忆状态,进而保证网络可以更好地学习到长距离依赖关系。

遗忘门(记忆门):通过判断当前输入信息的重要程度决定对过去信息的保留度
输入门:通过判断当前输入信息的重要程度决定对输入信息的保留度
输出门:当前输出有多大程度取决于当前记忆单元

激活函数:

门:sigmoid,0-1分布概率,符合门控的定义。且当输入较大或者较小时,值会接近1或0,进而控制开关。
候选记忆:分布在-1~1之间,与大多场景下0中心分布吻合在输入为0有较大的梯度,使模型更快收敛

LSTM+CRF
在这里插入图片描述
找最优路径时,要从局部最优到全局最优,保存每个节点对应的得分最高的路径及其分数。最后一个时刻得分最高的节点对应的路径就是最优路径。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值