论文笔记(一)Document Modeling with Gated Recurrent Neural Network for Sentiment Classification

最近又读了一篇论文,讲的是如何捕获文档级别的文本情感(其实就是如何捕获句子之间的关系)

  1. 解决问题:解决的就是如何捕获句子之间的关系
  2. word-sentence
    word-sentence
    先将每个word编码成向量(skip模型)Wi,然后将每个单词的向量叠加成一个句子,接着采用三个不同的卷积核(length = 1,2,3)来对句子进行特征的提取,加池化层(主要是为了能够捕获全句的语义),激活层用Tanh,然后对求出的三个向量进行平均计算得到句子(sentence)的向量。
  3. sentence-doc

在这里插入图片描述
接下来就是每个句子如何得到整个文章的向量,这篇论文里面用的是GNN网络,分别用了两种方法(1)一种是将每个句子的向量送入,(有点类似于LSTM)通过每一层的计算得到整个文档的向量表达。
(2)另一种是将每个句子的向量送入GNN生成向量进行求和。
(3)使用双向GNN(bi-GNN)网络进行句子的向量计算

  1. detail
    每个word生成的是200维向量(Skip模型)
    学习率为0.03
    在文档级别的评审中有很多情感转移器(例如否定词或对比词),而Tang等人(2014)通过给每个包含的 短语分配情感标签来学习。
    pool层是为了更好的提取句子的语义特征
    在语句建模方面LSTM优于CNN,标准的RNN效果是最差的,求平均和递归得到句子向量结果基本差不多
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值