论文笔记:Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks

ACL 2015

1 Intro

1.1 背景

  • LSTM 能够处理序列信息,但是无法处理带有树结构的数据
    • 依存句法分析树 (Dependency Tree)
    • 成分句法分析树 (Constituency Tree)

1.2 论文思路

  • 为了解决将树结构的数据作为输入训练 RNN 的问题,论文中提出了两种结构的 Tree-Structured LSTM:
    • Child-Sum Tree-LSTMs (Dependency Tree-LSTMs)

      适用于子节点个数不定或者子节点乱序的树结构。

    • N-ary Tree-LSTM (Constituency Tree-LSTMs)

      适用于每个单元的子单元的个数最多是 N,且子单元之间是有序的。

2 方法 

2.1 Child-Sum Tree-LSTMs (dependency tree)

给定树且令 C(j)表示节点 j 的子节点集合,那么 Child-Sum Tree-LSTMs 的计算公式为:

  • 与标准 LSTM 结构类似,Tree-LSTM 中每个 cell 都包括类似的输入门 i ,输出门o ,cell state c 和隐层输出 h。
  • 不同的地方是:
    • LSTM 中只用到了上一步神经元的隐藏输出h_{t-1} ,而 Tree-LSTM 用到了所有子节点的隐藏输出\tilde{h_j}=\sum_{k \in C(j)} h_k 。

    • Tree-LSTM 使用了多个遗忘门 f_{jk} 来控制多个子节点的 cell state candidate  ck

      • ——>可以选择性地从子节点中获取信息,例如在情感分析任务中去保存语义信息更加丰富的子节点的信息

3 实验

参考内容:【序列模型】基于 Tree-LSTM 的树结构语义表示模型 (qq.com)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值