Multiple Instance Learning Networks for Fine-Grained Sentiment Analysis
这篇文章,由爱丁堡大学的Stefanos Angelidis 与 Mirella Lapata 完成,主要介绍了如何利用MIL方法进行情感分析
1.Introduction
主要对情感分析的现状进行了阐述:
情感分析越来越热门,并且由于粗粒度情感数据的可获得性(比如用户评论+打分),很多监督学习方法都取得了良好的效果。
提出不足:
然而细粒度的情感分析,例如标明一篇文章中每个句子的情感得分,还存在很大的不足,主要是由于细粒度的数据标注实在太过困难。
主要贡献:
1.提出了一种MIL方法,可以借助对document的label来预测连续片段的情感极性(sentiment polarity)
2.构建了SPOT数据集,含有句子or EDU(Elementary Discourse unit) 粒度的标注,可以用来测试类似MIL这种功能的模型。
3.并且发现MIL比大多数传统神经结构的模型和基线模型在推理片段情感方面和从评论中提取有信息的观点的效果更好
2.Background
3.Methodology
MIL主要可以解决以下问题:需要复杂的专家知识来构建词典;片段标注的高昂成本;以及不能自然地预测片段的情感
3.1 Problem Formulation
在多实例学习的问题中,D(dataset)用来表示一组 labeled bags, 每个bags 内部是一组 unlabeled instance. 具体来说,每个document d 就是在情感分析问题中的 bag, document中每个sentence就是instance。每个document会存在一个情感标签,Yd ∈[1,C],1与C分别代表最负面和最正面的情感。并假设Yd是看不到的句子标签的某个函数: y d = f ( y 2 , y 3 , . . . , y m ) (1) y_{d} = f(y_{2},y_{3},...,y_{m})\tag1 yd=f(y2,y3,...,ym)(1)
我们要预测Yd,预测的Yd通过选择[1,C]标签中概率最大的那一项
此外,需要注意的是,过去预测document sentiment的方法是,将每一个segment做成v特征,然后通过 y ^ d = < v 1 , v 2 , . . . , v m > (2) \hat y_{d} = <v_{1},v{2},...,v_{m}>\tag2 y^d=<v1,v2,...,vm>(2)得到整体标签的预测
而MIL的方法是,直接对每个segment进行预测,然后再将所有的预测通过一个函数,得到最终的预测 p i = g ^ θ s ( v i ) (3) p_{i} = \hat g_{\theta_{s}}(v_{i}) \tag3 pi=<