[NLP论文阅读] A STRUCTURED SELF-ATTENTIVE SENTENCE EMBEDDING

论文原文:A STRUCTURED SELF-ATTENTIVE SENTENCE EMBEDDING

引言

这篇文章提出了使用self-attention技术来生成可解释句子向量的模型。通常我们使用向量(vector)来表示单词、短语或者句子向量,在这篇文章中,作者提出可以使用二维句子来表示句子,矩阵的每一行表示句子的不同部分。作者在3个不同的数据集上进行了3种不同的task,分别是author profiling,sentiment classification以及textual entailment,都取得了不错的效果。

模型

作者提出的模型主要由2部分组成。第1部分是一个双向LSTM,第2部分是self-attention mechanism,该机制提供了对LSTM的隐藏层状态进行加和的权重。

模型结构图如下a:
论文模型图

模型的输入: S=(w1,w2,...,wn)Rnd ,一个含有n个token的序列, wi 表示序列中第i个token对应的word embedding

输入的S进入一个双向LSTM,第t个单词对应的前向和后向隐藏状态计算方法如下:
双向LSTM
然后将前向和后向的隐藏状态进行连接得到用于后续计算的 ht ,如果LSTM的隐藏单元数为u,则 htR2u 。文中用句子 HRn2u 表示所有隐藏状态h的集合ÿ

  • 4
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 6
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值