语义分析(Semantic Parsing)调研

semantic parsing 调研综述

任务说明

semantic parsing,语义解析,从名称上来说,是一种相对于语法分析级别上更为高层的分析。具体来说,通常指的是将自然语言转换成为机器可以理解的意义表示。这种机器可以理解的意义表示,通常指逻辑形式(Logic Forms)。以下给出一个范例说明:

NL(natural language): article published in 1950
CF(canonical form): article whose publication date is 1950
LF(logic form): get[[lambda,s,[filter,s,pubDate,=,1950]],article]
DT(derivation tree): s0(np0 (np1 (typenp0), cp0 (relnp0, entitynp0))
DS(derivation seqs): s0 np0 np1 typenp0 cp0 relnp0 entitynp0

本文调研角度,主要侧重于semantic parsing这个任务的当前进展形式如何,了解在各个常用的实验数据集上的the-state-of-the-art的方法发展等。

调研结果

本文涉及的论文集合主要包含的是2015~2017年在ACL,EMNLP等会议上的文章,其中做了一些筛选,可能有所遗漏。

在所调研的文章中,其中实验使用较广的数据集有:GEO,JOBs,WebQuestions,WebQuestionsSP,WIKITABLEQUESTIONS,OVERNIGHT等。接下来从在从各个数据集上出发,做一个 state-of-the-art的报告:

  • GEO DATA:89.3

    构建更多的训练数据:在Data recombination for neural semantic parsing这篇文章中,基于 seq-to-seq 的 RNN 模型,结合 Attention-based Copying 机制,对应的是将一些可能没有转换规则的word直接输出,而不是再去从softmax 层去获取输出。这一点可以将 RNN-based的方法从74.6提升至85.0。本文更为重要的贡献是从给定的初始训练集中,利用同步上下文文法,以及抽象实体等方式,生成更多的in-domain的训练样例,使得模型获得了提升。

  • JOBs DATA:90.0

    不要手工特征,DL使我 happy:在 Language to logical form with neural attention一文中,作者利用 RNN以及注意力机制构建了seq-to-seq 模型,已经在此基础上构建了一个 tree-decoder,即为 seq-to-tree。其中 seq-to-tree model 获得了在神经网络方法上的state-of-the-art,在此之前,Percy liang(2013) 一篇基于DCS-L 的方法拥有更好的性能,但需要一系列手工特征设计。

  • FREE:79.2

    标注,不存在的:Large-scale semantic parsing without question answer pairs。在之前提过的方案中,训练实例是<sentence,logical forms>,这种形式需要的代价往往较大;还有一些人提到的方案面向 question-an

  • 15
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 8
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值