ChatGPT的能力边界在哪?

ChatGPT在今天被热炒,主要的原因不是因为它能和人聊天,或者能帮助人做作业。其实做作业这件事它做得并不好,虽然有些中学和大学的问题它能够解决,但是对于绝大部分问题,它给出的答案都是车轱辘话。

那ChatGPT被热炒的原因是什么呢?其实,ChatGPT真正可怕的地方在于,按照当前的速度发展下去,不断扩大应用领域,它可能可以解决很多原本需要人类才能解决的问题。

现在问题来了,都有哪些问题是ChatGPT能解决的?哪些是它不能解决的呢?

前面说了,ChatGPT的基础是语言模型,因此,它的极限也被语言模型的极限所限制。

这一讲,我们就看看语言模型都能做什么事情。理解了这个问题,你也就知道了ChatGPT的能力边界。

我们把语言模型能做的事情分为三类:

第一类:信息形式转换。

ChatGPT可以将信息从一种形式转换为另一种形式,如语音识别和机器翻译。在语音识别中,它将语音声波转换为文字,而在机器翻译中,它将一种语言的编码转换为另一种语言的编码。然而,这种转换通常会导致信息的损失。例如,在翻译过程中,文化元素可能会丢失,因为计算机难以完全理解语言的文化含义。这使得它在某些情况下可能给出不准确的答案。

之前有个团队产生了一个想法,说既然能够让计算机将一种人类语言的文本翻译成另一种人类语言的文本,就应该能将自然语言描述的文本翻译成机器语言的脚本,也就是程序。不过,当时的困难是,人其实也无法把自己的想法非常准确地用自然语言写清楚。

但从信息论的角度看,如果已经有了完美的算法,这一大类问题都可以得到完美的解决。对于这些事情,最终人是做不过机器的。

第二类:根据要求产生文本。

这是ChatGPT目前主要的应用领域,包括回答问题、回复邮件、书写简单段落等。但这类工作中,输入的信息较少,输出的信息较多,这带来了信息不足的问题。这也是为什么迭代式的交互方式可以提高ChatGPT的写作质量。

什么是迭代式的交互方式呢?其实就是比如先给ChatGPT提要求,让它写一篇文章。绝大部分人到此为止了,但是如果对机器写的文章提出新的修改要求,然后它就会重新给你写,然后你再提要求。这样一来二去,几次迭代下来,文章质量就大有提高了。

尽管它可以学习大量知识,并在某些领域表现出色,但比如像之前的问题,“天为什么是蓝色的”,能得到完美的答案,那是因为之前有物理学家进行了研究,并且他们的解释得到了更多物理学家的认可。也就是说,还是有人工干预在先。甚至于很多问题,其实在互联网上就有比较好的问题答案配对。ChatGPT这一类软件只是把它们整理出来。

再比如ChatGPT做小学算术应用题,甚至参加一些语文考试,比它参加研究生入学考试的成绩都要差很多,原因就是,那些小学生的题它没见过,研究生入学考试都是标准化的,有很多过去的考试题可以找到。

但是话说回来,虽然它并不具备创造性,无法像人类作家那样发挥想象力和个性。

但它还是很有价值的,它可以减少人的工作量。这就如同你在参加物理考试时,计算器可以节省时间一样。但是如果你不懂物理学的内容,即便有了趁手的工具,也照样考不出来。

也同样的,如果你不懂程序,即便有ChatGPT可以帮你写代码,也照样完成不了客户或者老板的需求。

第三类:信息精简。

这类任务涉及将更多的信息精简为较少的信息,比如为一篇长文撰写摘要或进行数据分析。如果人去做的话,肯定会带有先入为主的看法,然后根据自己的看法选择数据,有意无意忽略那些重要但不合自己想法的数据。还有很多人在做摘要时,喜欢断章取义。这些问题,计算机通常都能够避免。

就像同样是阅读《红楼梦》,有的人把它当作宝黛爱情故事来读,有的人把它当作官僚家庭的生活来读,也有人将它当作中国农耕社会的缩影来读。类似地,同样是将一部电影剪辑成短片,不同人挑选的片段也会不同。

在这方面,ChatGPT通常可以比人类更快地完成任务并提供客观的结果,它不会受到主观偏见的影响。然而,它的缺点也就是缺乏个性化,无法根据不同用户的需求提供不同的结果。

机器做这种事情,结果都是千篇一律的。这就如同生产线出现之前,手工制作的产品,每一件都有自己的特点;而大机器生产之后,所有的产品都是标准化的。

我们总的来讲,在这方面,人是做不过机器的。这就如同绝大部分手工产品的质量都不如大机器生产的好那样。

所以说ChatGPT也有其局限性。尽管它可以学习大量知识,但它仍然是基于统计和模式匹配的,缺乏真正的理解和推理能力。在处理一些专业性问题时,它可能需要人工干预,因为它没有先见知识和专业经验。此外,ChatGPT的算法也存在一定的不确定性,尤其在输入信息较少的情况下,可能会给出错误或模棱两可的答案。

尽管它在许多任务上表现出色,但对于一些需要深度理解、创造性思维和个性化的任务,人类仍然是不可替代的。所以在使用ChatGPT时,我们应该合理利用它的优势,并意识到在某些情况下仍需要人类的干预和判断。同时,随着技术的不断进步,我们也期待着ChatGPT在未来能够发展出更加复杂和智能的能力,为我们带来更多的便利和创新。

总结一下:

语言模型能做的事情可以分为三类:

1、信息形式转换。这是将信息从一种形式转换为另一种形式,无论是语音识别还是机器翻译,都属于这一类。

2、根据要求产生文本。今天ChatGPT做的主要工作,像回答问题、回复邮件、书写简单的段落,都属于这一类。

3、信息精简,把更多的信息精简为较少的信息。为一篇长文撰写摘要,按照要求进行数据分析,分析上市公司的财报,都属于这方面的工作。

  • 8
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

IT老王Hua_TZ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值