最关键的一个问题,大模型却无能为力

在这里插入图片描述
在科技传奇故事中,AI 就像是被供奉在特别祭坛上的神明,它不仅帮我们省钱 —— 因为 AI 能顶替人力,还让消费和利润像开了挂一样无限增长。AI 简直就是科技自然进化到更高级力量的完美例证。

大家都觉得,随着 AI 技术不断进步,我们将迎来一个完美的乌托邦,在那里我们能随心所欲地掌控自然,享受富足和悠闲的生活。

但是,如果我们揭开那些神话般的面纱,就会看到 AI 其实只是在模仿人类的智能。这种模仿让人着迷,以至于我们差点就信以为真。不过,模仿终究不是真正的智慧。虽然 AI 的模仿能力很强大,能帮我们做很多事情,但它还是没有真正的智能。

当前的生成式 AI,特别是那些 LLM 和机器学习,通过分析海量的人类写作和发言来模仿我们的自然语言。并通过算法来挑选出最佳答案。

这些 AI 程序其实不懂上下文或主题的真正含义;它们只是从人类的海量知识里提炼出答案。虽然这挺有用的,但它们离真正的智能还有点距离。

AI 程序在辨别真假方面有点力不从心,它们很容易把虚构的东西当成真的来处理。它们搞不清统计上的微小差异和严重的错误之间的区别。而且,想要让系统更安全,往往只会让系统变得更复杂,这反而可能成为新的故障点。

说到机器学习,AI 在处理那些需要大量计算的问题上,比如蛋白质折叠,确实能给出看似靠谱的答案。但这种计算过程就像个黑箱,我们看不到里面的操作,所以它的价值也就打了折扣。AI 其实并不懂蛋白质折叠到底是怎么一回事,我们也不知道它是怎么得出这些答案的。

由于 AI 不懂上下文,它的能力只限于我们事先设定好的程序和算法。这在基于 AI 的应用程序和机器人上表现得尤为明显 —— 它们对实际问题一窍不通。举个例子,如果我们的网络连接因为系统更新出了问题而断掉,但这种情况没有被纳入应用程序的问题范围,那它就会一本正经地告诉我们一切正常,哪怕实际上系统已经坏掉了。(这是真实发生过的情况。)

归根结底,AI 每深入一层,就可能多一个出错的地方:它分不清真假、搞不懂什么是小错误什么是大问题,而且那些复杂的预防措施和不透明的黑箱操作,都可能让小问题变成大灾难。

而且,**如果我们太依赖这种黑箱 AI 系统,风险也会越来越大。**到最后,我们可能连怎么修改或者重建这些系统都不会了。过分依赖 AI 程序,不仅会让数字系统崩溃,还会影响现实世界中依赖这些系统的基础设施。

依赖 AI 解决问题还有一个更糟糕的后果。就像手机、社交媒体和互联网内容让我们上瘾,扰乱了我们的注意力和学习能力 —— 这对孩子们的学习尤其有害 ——AI 提供了大量容易消化的小知识点、代码片段、电脑生成的广告、文章和书籍,我们不再需要深入理解主题和过程。没有这种深入理解,我们就无法从根本出发去质疑、探究或创造内容和代码。

现在看来,获取知识的过程好像变得不那么重要了:AI 机器人能快速、便宜又准确地完成各种任务。这就带来了两个问题:首先,如果这些神秘的 AI 程序出了问题,我们可能不知道该怎么去修复,或者不知道自己该怎么干;其次,我们失去了在很多没有明确答案的情况下理解问题的能力:所谓的 “答案” 需要对事实、事件、过程和知识进行解释,而这些本质上都是含糊不清的。

我们可能没意识到,AI 对问题的回答并不是事实本身,而是对现实的一种解读。AI 提供的解决方案只是众多可能的方法之一,每种方法都有其利弊,而这些利弊将来可能会带来我们意想不到的成本和后果。

要区分 AI 的解释和所谓的事实,需要广泛的知识和深刻的理解。但随着我们对学习复杂知识的动力和能力逐渐丧失,我们也失去了意识到我们失去的东西的能力:那些没有真正知识的人,没有理解 AI 回答背后所需的基础。

最终,我们可能会变得既无能又无知,对因失去能力而带来的风险视而不见。而 AI 程序却可能带来我们预料不到或无法阻止的大问题。AI 降低了产品和服务的质量,因为它只能模仿,不能提供真正的答案、解决方案和深刻的见解。我们却傻乎乎地把这些模仿出来的幻象当成了真正的智慧。

虽然那些大公司因为用 AI 取代了大量的人力而赚得盆满钵满,但对人类知识的挖掘和模仿总是有限的。**完全依赖 AI 程序来避免所有严重错误本身就是一个大错误。**因此,人类必须始终参与到决策过程中来(也就是所谓的 OODA 循环:观察、判断、决策、行动)。

一旦 AI 程序涉及到生命安全或者医疗过程,如果出了问题或者犯了致命错误,那所有跟这个 AI 程序有关的个人或组织都可能面临没完没了的责任风险。

如果我们去掉那些夸张的成分,最后我们看到的可能是一种新的封建结构:有钱的人享受着人类的服务,而我们其他人就得依赖那些质量低劣、容易出错、而且很难得到补偿的 AI 服务。

**AI 的支持者们预测,生成式 AI 能通过降低成本和创造新产品或服务,赚取数万亿美元。但这个预测跟现实不太一样。**在现实中,每个 AI 软件工具都能很容易地被复制和传播,所以它们很难保持稀缺性,而稀缺性是保持定价权、赚取超额利润的关键。

如果每个人都能拿到这些软件工具,那它们就几乎没什么价值了,除非有人能控制它们的分发,形成垄断。这些工具自动生成的内容也差不多一文不值:成百上千的由 AI 创作的歌曲、电影、新闻稿、文章和研究报告会把潜在的观众都淹没了,结果就是所有 AI 生成的东西都变得不值钱。

支持者们说,大规模裁员会被 AI 创造的新行业所抵消,就像以前从农场工作转到工厂工作那样。但 AI 这条龙最后可能会自己把自己给吃了,因为它创造的工作岗位和税收收入非常有限,而这些钱本来是可以用来支付人们不工作的费用的,比如全民基本收入。

**也许 AI 最大的局限在于,它对我们面临的最紧迫问题无能为力。**它没法清理太平洋上的垃圾带,没法减少每年排放的 4.5 亿吨大部分没回收的塑料,没法逆转气候变化,没法清除近地轨道上飞行的成千上万的太空垃圾,也没法把那种以浪费为增长的垃圾场经济转变成可持续的全球系统,更没法消除所有我所说的阻碍进步的因素。它只会增加新的系统性风险、浪费和新的封建式剥削。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值