NLP系列(5)文本实体识别(LSTM)pytorch

模型介绍 

LSTM:长短期记忆网络(Long-short-term-memory),能够记住长句子的前后信息,解决了RNN的问题(时间间隔较大时,网络对前面的信息会遗忘,从而出现梯度消失问题,会形成长期依赖问题),避免长期依赖问题。

模型结构

遗忘门:控制上一个时刻的内部长期状态需要遗忘多少信息

输入门:控制当前时刻的候选长期状态有多少信息需要保留

输入门:控制当前时刻的内部长期状态有多少信息需要输出给外部

图1 LSTM 结构图1

 图1 LSTM 结构图2

这里的 σ 就是一个门,是 sigmoid 激活函数。

模型详解

知乎上的文章,里面有详细介绍 

LSTM BiLSTM 知乎

详解 LSTM 和 BiLSTM及代码实现

RNN&LSTM中的梯度消失问题 知乎

数据准备

数据集用的是论文【ACL 2018Chinese NER using Lattice LSTM】中从新浪财经收集的简历数据。每一句话用换行进行隔开。

               

模型准备

self.lstm = nn.LSTM(embedding_num, hidden_num, batch_first=True, bidirectional=bi)
    def forward(self, text, label=None):
        embedding = self.embedding(text)
        out, _ = self.lstm(embedding)
        pred = self.classifier(out)
        self.pred = torch.argmax(pred, dim=-1).reshape(-1)

        if label is not None:
            loss = self.loss(pred.reshape(-1, pred.shape[-1]), label.reshape(-1))
            return loss
        return torch.argmax(pred, dim=-1).reshape(-1)

模型预测 

 源码获取

LSTM 实体识别icon-default.png?t=N7T8https://github.com/mzc421/pytorch-nlp/tree/master/08-LSTM%20%E5%AE%9E%E4%BD%93%E8%AF%86%E5%88%AB

硬性的标准其实限制不了无限可能的我们,所以啊!少年们加油吧!

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

牧锦程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值