深度:ChatGPT并不是真的智能!人的大脑,语言和思维是两个东西

最近 ChatGPT很火,其强大甚至让很多人以为GPT可能在涌现智慧,以至于可能摸到了大人类脑的底层运作原理。

但事实真的如此么?
最近,国外人工智能专家专门为此做了反驳。

在这样一篇论文里,作者说现在的科学家和人工智能都太把语言当成思维的工具了,其实语言和思维是两回事。

他们拿ChatGPT这个机器人举例,说它会说话,有时候还能骗过人类,让人以为它有意识和理解。

但是它也会说一些很傻的话,不会算数,不会给出真正的烹饪建议,而且还有一些偏见,这就说明它其实不懂语言的意义。

论文的作者说,会一种能力不等于 会另一种能力。就像人类的大脑里面,说话的部分、进行计算和逻辑推理的部分并不是一个地方。ChatGPT这样的机器人也不可能同时擅长这些东西,即使它已经看了很多很多文字。它只是会依据概率拼凑句子,但不代表它会算数或者给出好的做饭建议。

这就是人类大脑里面语言和思想分开的体现,论文的作者把它们叫做“形式语言能力”和“功能语言能力”。ChatGPT在某些测试中表现得不错,但其实只是因为它会玩词语接龙游戏,并没有真正理解问题。

可是现在还有很多人在吹嘘下一代的语言模型,说它们能用更多数据,更强大的计算力,甚至快要达到通用人工智能了。

但是如果我们把人类智慧作为比较的标准,单纯提高ChatGPT这样的系统在预测词上的能力,并不能让它更接近这个目标。反而应该用其他的训练方式,比如让它学习逻辑和社会推理。

当然,ChatGPT也试图从人类反馈中学习,比如用户可以评价它的回答好不好,但是因为没有具体说明反馈的目标是什么,ChatGPT显然在某些方面理解错了。

而且,有专家认为我们对大语言模型在语言上的评价太高了:它们只是自动填词器,优点和缺点都很大。语言不只是语法,还要考虑语义,而机器人很难理解一个句子是怎么从各个部分组合出意义的。意义不是固定的,而是要通过交流来协商出来的,不仅要跟别人交流,还要跟这个世界交流。

要造出真正智能的AI,不仅需要把不同算法结合起来,还需要让程序学习怎么处理语言和社会关系。虽然大语言模型说话很流利,但我们对它们到底“懂”了这个世界多少还有很大争论。

语言意义的产生需要与他人和世界的交互,如果这才是本质上正确的东西,那么,构建通用智能AI需要一种不同于简单结合语言与思维的方式。

人类之所以“擅长”语言,是因为我们将两者结合。掌握语言规则并运用的ChatGPT,定然拥有某种智能,但狭隘模仿人类语言也限制了其发展。

要想创建硅基“大脑”,研发人员需要新的视角和语言来理解语言本身的意义!!

现在,整篇论文的核心观点已讲完,你们知道ChatGPT如何看待这个观点的么?
AI是这样说(或者是词语接龙出来)的:

这是一个很有趣的问题。我觉得这篇论文提出了一些值得思考的观点,比如语言和思维的区别,以及大语言模型的局限性。但我也觉得这篇论文可能忽略了一些重要的因素,比如语言和思维的相互影响,以及大语言模型的潜在优势。在这个领域,还有很多未知的问题,需要更多的研究和探索。语言和思维是人类认知的两个重要方面,它们既有区别,也有联系。一方面,语言和思维可以独立存在,不同的语言并不影响人们的思维能力,而不会说话的人也可以有复杂的思想。另一方面,语言和思维也可以相互影响,语言可以帮助人们表达和交流思想,而思维可以帮助人们理解和创造语言。语言和思维的相互影响可能取决于多种因素,比如个人的经验、文化、情境等。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值