AI有智商吗?DeepMind为此专门开发了一套IQ测试题...

640?wx_fmt=gif

本文由人工智能观察编译

译者:Sandy

机器能抽象地学习推理吗?这是谷歌子公司DeepMind的一篇新论文的主题,该论文题目是《测试神经网络的抽象推理能力》。据了解,这篇论文发表在本周于瑞典斯德哥尔摩举行的国际机器学习会议上。

 

研究人员将抽象推理定义为在概念层次上检测模型和解决问题的能力。他们注意到,就人类自身而言,语言、空间和数学推理可以通过测试进行经验性的测量。而在测试中,任务主体会梳理出形状位置和线条颜色之间的关系。但是这些测试并不完美。

 

“不幸的是,即使是人类,如果受试者准备太多,这样的测试也可能无效,因为他们可以学习特定于测试的启发式方法,从而缩短了对普遍适用的推理的需求,”研究人员解释说。 “这种潜在的缺陷对神经网络而言可能更严重,因为它们具有惊人的记忆能力。”

 

该团队的解决方案是构建一个生成器,涉及一系列抽象因素的问题,包括“渐进”之类的关系以及“颜色”和“大小”等属性。虽然这个生成器使用了一组潜在因素,但是仍会产生大量独特的问题,因此研究人员通过限制这些因素来创建不同的问题集。比如,只有当应用到线条的颜色时才会显示出进展关系,以此来测试和训练机器学习。在他们看来,高度熟练的算法很可能推断出他们以前从未见过的概念。

640?wx_fmt=png

在测试中,大多数模型都表现良好,有些模型的性能甚至高达75%;研究人员发现,模型准确性与推断任务底层抽象概念的能力密切相关。另外,研究人员还通过训练模型“推理”答案来提高其性能。

 

“有些模型学会了解决复杂的视觉推理问题,”该团队写道,“为此,他们需要从原始像素输入中引入并检测抽象概念的存在,并将这些原则应用于从未观察到的刺激。“

 

但即使是表现最佳的神经网络Wild Relation Network(WReN)也有其局限性:它无法推断出在训练期间没有看到的属性值,并且在对先前看到的关系或新属性进行训练时,它在泛化任务上的表现很差。

 

“我们的研究结果表明,想得出关于泛化的普遍结论可能是无益的:我们测试的神经网络在某些泛化方案中表现良好,而在其他方面表现很差,”该团队在一篇博客文章中写道。“他们的成功是由一系列因素决定的,包括所用模型的架构以及该模型是否经过培训等等。”

 

最终的结果可能是一个“大杂烩”,但研究人员还没有放弃。他们计划改进泛化策略,并探索在未来的模型中使用“结构丰富,但普遍适用”的归纳偏差。

(文中图片来自网络)

640?wx_fmt=png

投稿、约访、合作,联系邮箱aiobservation@qq.com

添加微信aixiaozhijun,更多交流或进AI观察团

640?wx_fmt=gif
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值