lstm模型_双向LSTM+Attention文本分类模型(附pytorch代码)

518c43700b162fd8d46752ded37688cb.png

深度学习里的Attention模型其实模拟的是人脑的注意力模型。举个例子来说,当我们阅读一段话时,虽然我们可以看到整句话,但是在我们深入仔细地观察时,其实眼睛聚焦的就只有很少的几个词,也就是说这个时候人脑对整句话的关注并不是均衡的,是有一定的权重区分的。这就是深度学习里的Attention Model的核心思想。具体的可以去阅读Attention模型的论文。

使用Attention模型进行文本分类,可以借助传统的LSTM。双向LSTM+Attention模型如下图:

a72c2b2fdacc7a4f25b2cfbca657f3c3.png

我将具体的代码放在了我的github,欢迎大家下载:

u784799i/biLSTM_attn​github.com
11c8aa35ebd147e850d38e07c1cbb962.png

代码中的训练和测试数据一共有6000多条࿰

  • 3
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值