论文理解(一)树形lstm

Long Short-Term Memory Over Tree Structures

树结构的lstm中的记忆细胞可以通过递归的过程反映多个孩子及后代的历史信息。孩子节点之间是否有交互(图一)?提供一种特定的方法考虑不同等级上的长距离交互。例如语言和图像的解析结构。

用s-lstm的记忆模块代替递归模型中的组合层,应用在通过语义组合来理解一段文本。句子的语义并不是线性的拼接,他是有结构的。与先前的lstm比s-lstm有避免梯度消失的潜力(前者也有,因为连续自乘引起的),通过树结构对长距离交互进行建模。S-LSTM can be viewed as considering together a recursive neural network and a recurrent neural network。In brief, S-LSTM wires memory blocks in a partial-order tree structures instead of in a full-order sequence as in a chain-structured LSTM。

论文有两点贡献,s-lstm在理解语义上效果较之前的方法好,利用结构信息有助于得到更好表现。

recursive:网络是定义在递归树结构上,每一个树节点是从它的孩子计算出来的向量。叶子节点和中间节点自底向上的组合。

recurrent:不同于前馈网络,在时间上分享隐藏状态。The sequential history is summarized in a hidden vector. RNN also suffers from the decaying of gradient, or less frequently, blowing-up of gradient problem. LSTM replaces the hidden vector of a recurrent neural network with memory blocks which are equipped with gates; it can in principle keep longterm memory by training proper gating weights

尽管链式结构的lstm很有前途,但是很多有趣的问题都和输入结构有着固有的联系,那比序列结构更复杂。就如前面提到的句子语义不是简单的单词拼接。尽管序列结构可以隐含的捕捉结构信息但是缺乏声称力量(claim power)。例如在机器翻译及语音识别领域,句子倒序会引起很大的变化。不同于先前的工作,我们提出s-lstm利用结构信息可以得到更好的结果相比于忽略结构信息而言。

记忆模块包括一个输入门,一个输出门,和多个遗忘门(数量和孩子的节点数相同),本文中是给出的二叉树的结构,所以有两个遗忘门,此结构在现实生活中应该有很多应用,也可以把一般的树转化为二叉树。

x(t)的当前输入是孩子节点传入父节点的隐含值。逆向误差传递的时候要区分当前处理的节点是左孩子还是右孩子。反向传播的时候,先计算各个门的的导数,然后再计算权重的导数,做更新。

目标函数需要考虑输出结构,依赖问题规模,本文定义目标函数是最小化所有节点的交叉熵的和。

我们把模型应用在语义组合上面。先前我们处理类似的问题一般是考虑目标短语较小的片段,用词袋模型。最近的工作,就会建模来组合,这是语义生成的一种新的方法。

更详细的解释在 https://blog.csdn.net/ltochange/article/details/118940404

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

旺旺棒棒冰

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值