组合泛化太难?试试解析式学习,100%准确率!

文章探讨了深度学习模型在组合泛化能力上的挑战,特别是面对如SCAN和CFQ数据集时的困难。研究人员提出了一种名为LANE的记忆增强神经模型,该模型在SCAN上取得了100%的准确率,解决了组合泛化问题。通过学习解析表达式,LANE能够理解自然语言并生成相应指令,展示了在无额外资源的情况下解决复杂语言任务的潜力。
摘要由CSDN通过智能技术生成

点击蓝字

关注我们

AI TIME欢迎每一位AI爱好者的加入!

近年来,深度学习模型在各种任务上都取得了非常大的成功。然而,不同于人类可以从少量样本中快速学习,深度学习模型的成功仍依赖于大量训练数据。那么,深度学习模型是否有可能拥有人类这种快速学习的能力呢?一个关键问题就在于深度学习是否可以拥有组合泛化能力。组合泛化是人类的一种基本而又必不可少的能力,通过理解已知部件的未知组合,人类可以利用有限的语言元素理解无限的自然语言世界。因此,越来越多研究者关注在组合泛化这个问题上,尤其是在AI编程领域。

2018年,纽约大学和Facebook的科学家们提出一个组合泛化领域的经典测试基准SCAN,测试任务是将诸如“run after walk”这样的自然语言解析成诸如“WALK RUN”这样的导航指令。然而他们发现,目前最先进的深度学习模型,甚至包括预训练模型,在这个测试基准上表现得都尤其差。为了解决这个问题,本文指出组合泛化的核心在于将语言看作某种代数系统,通过学习表达式来达成模型的组合泛化。在该思想的指导下,本文提出一种新颖的记忆增强的神经模型LANE,该模型在SCAN上取得了相当好的效果。

刘乾:北京航空航天大学与微软亚洲研究院联合培养博士,主要关注在上下文建模、语义解析、组合泛化等话题,目前以第一作者身份在ACL, EMNLP, NeurIPS等会议发表若干论文。

一、研究背景

组合泛化能力

人类天生具有组合泛化的能力,这体现在自然语言和程序语言中。正如语言学家乔姆斯基所言:“有限资源,无穷运用”,人类可以动态重组现有的原子语义。同样,程序语言的组合性,也使其具有无限空间。

在认知心理学中,组合泛化实际是一种能力,将简单的元素重组来理解全新的句子。例如,给定左侧这4个人造单词及其对应的颜色系列,人们可以将原子语义重新组合,从而轻易推断出新的例子“lug kiki wif”对应的颜色系列。

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值