《Attention and Lexicon Regularized LSTM for Aspect-based Sentiment Analysis》阅读笔记

摘要:端到端的深度神经网络不能很容易地适应一些明显的问题,比如说,训练数据量少。注意力机制很可能过度关注句子的某一部分,无法适用性的改变注意力机制。本文加入词典信息使得模型更加鲁棒和灵活,同时研究了正则化注意力向量的作用。

 

intrduction: 提出一个结合词典信息和注意力机制的LSTM的模型用来进行aspect 情感分类

methodology

attention-lstm 通过学习注意力向量将aspect的embedding考虑进来,将hidden state 和aspect embedding拼接作为输入,然后利用交叉熵损失函数

词典构建是将多个词典合成一个

注意力正则化

注意力过度集中在某个地方,意味着注意力过拟合了,则采取注意力正则化的方式,其实是在损失函数后面加上偏差

 

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值