句子分类_AAAI 2018: 基于强化学习的文本分类

论文提出了一种结合强化学习的文本分类方法,通过ID-LSTM和HS-LSTM模型,优化句子结构化表示,以保留重要信息并去除冗余,提高分类效果。策略网络PNet、结构化表示模型和分类网络CNet共同作用,通过奖励机制训练模型。
摘要由CSDN通过智能技术生成

22747e7231b811220514d6cbfd98ded2.png
看这篇论文前,建议先了解一下policy gradient RL,就更很容易理解论文思想了。

论文:《Learning Structured Representation for Text Classification via Reinforcement Learning》

代码:

清华大学人工智能​coai.cs.tsinghua.edu.cn

一、论文原理

这篇论文在文本分类任务中,应用了policy gradient强化学习的方法,来得到更好的句子结构化表征(ID-LSTM model保留有用单词,删除无用的单词如"a","the"等;HS-LSTM model将整个序列划分为多个短语结构),从而得到更好的文本分类效果。

二、模型结构

f9207a8e1759b12e6412d61c08920904.png
Overview

模型分为三个部分:

策略网络(PNet)、结构化表示结构(两个LSTM Module)、分类网络(CNet).

这里的两个LSTM Module是分别训练的,PNet决定Information Distilled LSTM (ID-LSTM)中是否保留当前单词,action为{Retain, Delete};PNet决定Hierarchically Structured LSTM (HS-LSTM) 中word-level lstm当前单词是否是短语结束位置/短语中,action为{Inside, End},再将判断的短语输入phrase-level lstm得到序列结构化特征。
下面会详细介绍。
  • 策略网络(PNet)根据 结构化表示模型(LSTM Model) 中每一个step的输入和上一层隐层状态决定当前采取
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值