面向目标词的情感分类

本文介绍了Target-Specific Transformation Networks (TNet)模型,用于目标导向的情感分类。TNet结合了LSTM的上下文保留和TST组件,通过动态计算目标词对句子中每个词的重要性,增强非目标词与目标词的关系表示,从而提高分类准确性。TNet解决了RNN和CNN在处理多目标词句子时的问题,通过Lossless Forwarding和Adaptive Scaling保持上下文信息。
摘要由CSDN通过智能技术生成

Transformation Networks for Target-Oriented Sentiment Classification

标签(空格分隔): 论文笔记 情感分类


Abstract

目的是利用句子里的目标词进行分类,对句子中的目标词作为关注点进行极性判断,从而判断句子的极性,输入的是(target,sentence),传统的一些基于RNN通常用于翻译,主要利用基于词级别特征来进行分类,但是存在的一些噪声会降低准确度。利用(target, sentence)组进行预测,提取每个词与target之间的关系,
例如:This dish is my favorite and I always get it and never get tired of it.
这个句子是积极的,但是存在never和tired这两个负面词,会对结果产生影响。另一方面,CNN确实能解决模型的分类问题,但是对于一个句子存在多个目标词还有一些问题,并不能充分利用被RNN抽取到的目标信息,也就是一个句子有一个目标词能处理,有多个目标词并不能区分开来。
检查了基于注意力机制的RNN模型实现情感分类和CNN在实现情感分类存在的一些问题后,提出了一个新的模型,被称为 TargetSpecific Transformation Networks (TNet)模型,在这两个层之间,利用一个组件生成一个句子中词的特殊目标向量。同时吸收RNN保存上下文信息的机制,被称为Target-Specific Transformation (TST) 。TST能对句子中单个的目标词生成单独的特征,TST能使非目标词对每个目标词的不同作用体现出来,把目标信息融合到句子中每个词中,TNet模型首先利用LSTM模型把词语转换为上下文相关的词向量。为了把目标词的信息加入词向量中,利用了一个TST结构,TST首先对每个词和目标词生成特定的向量,比如下面这个句子
I am pleased with the fast log on, and the long battery life
TST首先测量词语long与目标词之间的联系,是用这个联系生成long关于目标词的特征向量,每个词语都与目标向量生成一个特征向量,这样做的好处是能区别目标词之外的词与目标词之间的关系,这样能训练出针对目标词的积极词和消极词。TST跟好的把目标信息整合到词向量中了。
具体实现:
第一层:第一层是一个LSTM层
输入是一个目标-句子对 ( W T , W ) (W^T, W) (WT,W), W T = w 1 T , w 1 T , . . . , w m T W^T={w_1^T, w_1^T,...,w_m^T} WT=w1T,w1T,...,wmT, W = w 1 , w 2 , . . . , w n W = {w_1,w_2,...,w_n } W=w1,w2,...,wn, W T W^T WT W W W的子向量。和相对应的词向量 X T = x 1 T , x 2 T , . . . , x m T X^T={x_1^T,x_2^T,...,x_m^T} XT=x1T,x2T,...,xmT x = x 1 , x 2 , . . . , x n x={x_1,x_2,...,x_n} x=x1,x2,...,xn分类的目标是预测句子的情感类别 y ⊂ P , N , O y\subset{P,N,O} y

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值