Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks

引入

先前研究过的LSTM结构是一个线性链。然而,自然语言有将单词自然地组合成短语的句法特性。

在这里插入图片描述
图中非叶子结点也有输入,应该是Dependency parsing Tree

Dependency parsing 和 Constituency parsing

输入句子: “We saw the yellow dog”

Constituency parsing
在这里插入图片描述

Dependency parsing
在这里插入图片描述

标准LSTM

在这里插入图片描述
详见https://blog.csdn.net/ltochange/article/details/118942985

树形lstm

论文提出两个树形结构的lstm:

  1. the Child-Sum Tree-LSTM
  2. the N-ary Tree-LSTM

相比标准的lstm,树形lstm包含多个孩子结点的隐藏状态h和记忆单元c,以二叉树为例:

在这里插入图片描述

the Child-Sum Tree-LSTM

在这里插入图片描述
相比于标准LSTM,这里首先将多个孩子结点的隐层状态求和;在更新记忆单元时,使用多个遗忘门控制孩子结点信息的保留。

因为这里将孩子结点的隐层状态求和,而忽略了孩子结点之间的顺序,因此适合孩子结点无序的树结构 或者 分支因子高的树结构(相对于the N-ary Tree-LSTM结构来说的,该结构复杂度更高,不适合用于分支因子高的)

例如,可用于 Dependency Tree 依存句法树,称为 Dependency Tree-LSTM

the N-ary Tree-LSTM

在这里插入图片描述

对于每个孩子结点的隐层输出,都有各自对应的参数。除此以外,由公式10可知,该结构还会考虑不同孩子之间的关系。

该结构可用于Constituency Tree 选区树,因为Constituency Tree的孩子结点存在先后顺序, 称为 Constituency Tree-LSTMs

实验

两个任务

(1)句子情感分类:五分类和二分类

使用了短语级别的情感标签,如果训练集中存在的话,也会计算loss
在这里插入图片描述
在这里插入图片描述
m是所有带标签的结点的数量

(2)句子对的语义相关度评分

通过预测评分来得到预测评级
在这里插入图片描述

根据标签y构建实际概率分布:

在这里插入图片描述
1 ≤ i ≤ K 1\leq i \leq K 1iK

使用KL散度(衡量两个分布之间差异),计算损失函数:

在这里插入图片描述

m是训练句子对

结果

在这里插入图片描述

情感分类

在这里插入图片描述

句子对相关度评分

在这里插入图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

旺旺棒棒冰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值