《Language to logical form with neural attention》被引论文

本文汇总了《Language to logical form with neural attention》被引用论文的研究进展,涉及数据重组、粗细粒度解码和序列结构预测等方法。数据重组通过SCFG捕获重要属性,提升RNN模型的准确性;粗细粒度解码将语义分析分为两步,先生成粗略描述再填补细节;序列预测方法比较了不同序列化逻辑形式的方式,结合语法约束以优化结果。
摘要由CSDN通过智能技术生成

《language to logical form with neural attention》这篇文章使用了seq2seq模型,引入attention机制,将自然语言翻译到其逻辑形式。并提出了一种新的seq2tree模型,树状结构的效果更好。
在Google scholar上,该论文被引用96次。现将引用该论文的论文进行整理,了解该方向最新的科研进展。

  1. Data Recombination for Neural Semantic Parsing
    作者信息:Robin Jia/Percy Liang,Stanford CS

摘要:在语义分析中,建立清晰的逻辑规则是非常重要的,因此,没有领域特定的先验知识的神经模型很难取得好的结果。本文提出了数据重组方法,这是一种将此类先验知识注入模型的新框架。从训练数据中,我们引出了一种高精度的同步上下文无关语法,它捕获了语义分析中常见的重要条件独立属性。然后,我们训练序列到序列的循环网络(RNN)模型,该模型在从该语法中采样的数据点上具有新颖的基于注意力的复制机制,从而教导模型关于这些结构特性。 数据重组提高了我们的RNN模型在三个语义分析数据集上的准确性,从而为具有可比监督的模型在标准GeoQuery数据集上带来了新的最先进性能。

  • 文章介绍了一种新的基于注意力的复制机制。因为在input中的实体名字通常直接与output中的token相关联。基于注意力的复制机制中,每个时间阶段j,解码器生成两种action中的一种(从output词汇表中选择单词,或者是直接讲input中的词直接复制到output),概率由Xi上的attention分数决定。

  • 本文的主要贡献还是利用数据重组的框架将先验知识注

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值