知识图谱是否是 NLP 的未来?

作者:鲁云龙
链接:https://www.zhihu.com/question/267242467/answer/1827583493
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
 

其实题主说得很对:“如果神经网络自己能通过训练存储所有知识信息,也就没必要用知识图谱了”,但问题却提反了,应该说NLP是知识图谱的未来,而且这是必然的发展趋势。

知识图谱本质上是一种结构化的知识体系,试图刻画、整理出人类所理解的知识关联方式去促进人工智能的发展。这个问题其实反映了人工智能领域最核心的两大思潮:即到底是用我们人类的知识去构建人工智能,帮助他们成长;还是用最通用的方法,让人工智能自己尝试去学这些知识,尽管在效果上可能远不如前一种方法。

在人工智能发展的最早期,很多人思考过:人工智能发展到什么程度就算是具有人类的智能水平了呢?图灵测试就是当时提出的一种标准,即让人工智能与人对话,看看人能否把人工智能和人区分开。到如今来看,这个标准其实是一个非常落后的标准,目前一个精心设计的聊天机器人完全可以通过这项测试,但仍然不能说人工智能在语言理解上已经能达到人类的水平。目前AI所能做的仍然是解决特定的任务,比如计算机视觉,比如自然语言处理,比如智能决策,它和人类所能表现出的语言理解能力、新环境中的快速学习能力、知识迁移能力、创造力等等仍然有很大差距。在一些特定领域,比如图像识别、棋牌类游戏上,人工智能确实表现出了超过人类的水平,甚至表现出一定的创造力(比如DALL-E),但人们肯定不会将这种超越看做是人工智能达到人类智能水平的体现,人们对人工智能的期望是:什么时候人工智能能真的像人类那样理解语言,或者说理解知识,并且像人类那样去思考和解决乃至提出问题呢?

知识图谱正是这样一种尝试。既然人工智能目前还不能真的学会、理解知识,那么我们就把知识体系整理出来,教给人工智能。可能在早期,利用知识图谱的AI确实超越了那些纯粹学习的AI。即使是现在,通过纯粹学习的AI,比如NLP领域近年来的大规模预训练模型BERT, GPT-3等,虽然在一些任务上表现比较好,但仔细观察其行为会发现它们远远没有真的理解语义,而是以一种拙劣的方式去模仿生成人类的语言,在一些时候会犯各种匪夷所思的错误。主张人工智能需要知识图谱的研究者们会坚定地认为,人工智能凭借自身的学习,不依赖人类知识的情况下,是不可能学到真正理解人类的语义乃至从人类的角度去思考问题的,人类对知识的理解、归纳能力是特别的,是机器所难以学到的。

然而,正如Sutton的《The Bitter Lesson》所说,"The biggest lesson that can be read from 70 years of AI research is that general methods that leverage computation are ultimately the most effective, and by a large margin"。 几十年来的AI研究,给我们的最大教训是那些最通用的、堆算力来获取成果的方法最终被证明是最有效的。在同一时期下,我们总是局限于目前的算力,在算力有限的假设下做研究,因此能够提升人工智能效果的必然是人类知识的引入。然而随着算力发展,我们最终发现那些曾经引入人类知识的人工智能都输给了采用大规模算力的暴力智能,人类经验被证明并不是最优的,反而拖累了那些基于人类经验的人工智能所能达到的水平。

从游戏领域来说,1997年国际象棋AI深蓝战胜人类采用了大规模的深度搜索,当时让那些依赖人类象棋知识设计AI的人们感到不安,但他们会说:暴力方法可能这次管用了,但它毕竟不是人类下象棋的方法,没有真的理解象棋的奥秘,更复杂的问题你们用暴力是解决不了的。仅仅是20年后,围棋被AlphaGo解决了,在这之前有无数采用人类经验设计的AI,但最终都输给了采用纯搜索、学习和巨量算力的AlphaGo(Zero)。从图像领域来说,早期那些检测图像特征的SIFT等等手段,也在卷积网络发明后被依赖算力的通用算法降维打击。事实上,几乎所有AI研究都反复验证了这个规律,即采用人类经验的方法最终会输给依赖算力的通用方法,只是越复杂的问题,所消耗的算力越大,因此被解决的更晚。

而NLP,现在就处在这样一个尴尬的时期,和深蓝打败人类时AI无法攻克的围棋是一样的。目前的人工智能无法真的理解语义,不是因为人类对知识的理解归纳能力独一无二,而是因为人类语言的语义过于复杂,以至于(1)需要比当前大得多的模型和算力去理解(2)仅通过文本来训练模型无法提供所有的语义信息

人类语言的语义包含的信息量是巨大的,随便一个词汇,比如“白云”,就包含了大量的先验知识:白色是一种颜色;云在天上;白云通常以蓝天为背景;云是由水滴和冰晶组成的、悬浮在空中的聚集体,以及由此发散出的知识体系,如各种颜色、天空的定义、水的种种性质等等。我们人类是怎么掌握这些知识的呢?通过小时候的学习积累,通过视觉上的观察,通过学习物理化学等等领域知识,而这些领域知识又是科学家们通过观察、实验所得到的。

这就是我所说的第一点的原因,只有当掌握所有这些先验知识,AI才能真的去理解人类的语义,这就意味着模型本身要能够足够大,并且需要足够多的算力去训练这个模型。有人会问,这些知识体系不正是知识图谱所要干的事情吗?通过我们人类对知识的理解来整理知识体系不是更高效的解决办法吗?然而,知识体系在我们人脑中是怎么储存的呢,是通过结构化的数据库吗?显然不是的,人脑是通过巨量的神经元、通过他们之间的连接模式、刺激传导模式来储存的这些信息,那么凭什么认为现在基于模糊推理的神经网络,尽管运作机制上和人脑并不同,就不能学到比人类所总结的知识更好的知识表示呢?

而第二点,想一想人类学习知识的方式,是从刚出生只有本能的婴儿开始,接受视觉、听觉、嗅觉、触觉的刺激,经过若干年的学习才掌握了世界的运作方式:当我们学习“苹果”这个概念的时候,我们并不是仅仅听到这个词,而是会通过图片、通过触摸实物来认识到它的颜色、形状、气味等等性质。而对于BERT、GPT-3,它们学到的“苹果”的概念完全来源于大量的文本:“他吃了苹果”、“苹果是红色的”、“苹果大体上是圆的”等等,这种模型学习到的概念与其说是“语义”,不如说是各种词汇之间的“联系”,基于这种表层上的联系来理解语言,是不可能学到完整的语义信息的,因此这些模型往往会产出一些匪夷所思的文本。

因此,大规模、多模态模型才是NLP领域未来的发展方向。学界似乎也认识到了这个问题,最近一年有许多将文本、图像结合起来训练大模型的工作,比如上面提到的DALL-E,根据文本描述生成图像,展现出了惊艳的效果和创造力。随着算力的提升,我相信在未来研究者们会尝试更加大规模、多模态的模型,譬如在文本、图像基础上进一步加入视频、音频等等数据,将会对NLP模型理解语义带来极大的帮助。

而知识图谱,作为人类自己总结知识以提高AI能力的尝试,将会像当年利用人类经验下棋的AI、利用人工特征进行图像处理的AI一样,被历史所淘汰。正如《The Bitter Lesson》中所说,“We want AI agents that can discover like we can, not which contain what we have discovered. Building in our discoveries only makes it harder to see how the discovering process can be done.”我们希望得到能像我们一样去学习发现的AI,而不是包含了我们已经学到的知识的AI;将我们自己的知识放进AI只会让我们更难看清这些知识是怎么被学习的。

最后,作为我个人的看法,强人工智能可能真的是可实现的,如果我们沿着大规模、多模态模型的方向继续前进的话。这里的强人工智能指的是有知觉、有自我意识的,能够像人类一样真正会推理和解决问题的智能体。而当通用的模型达到足够大,算力足够强,能够使用多模态的数据去训练使其像人一样学到各种知识体系的情况下,它们在知识理解掌握程度上终将达到乃至超越人类的水平。我们正在通向强人工智能的道路上。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值