牛津大学哲学教授发布61页长文:智能爆炸进入倒计时,我们该为“后天”准备准备了!

在过去的几年里,我们见证了人工智能的突飞猛进:从写诗答题到绘图编程,从对话聊天到法律分析

,AI的成长速度简直令人目瞪口呆。所幸,越来越多的科学家和技术伦理学家开始认真思考这样一个问题:如果未来5到10年内,AI变得比人类更为聪明,我们又该如何应对?


这不是危言耸听,而是许多前沿研究者基于科技发展趋势作出的判断。比如2025年3月,牛津大学哲学教授Will MacAskill和研究员Fin Moorhouse,便针对这一问题,发布了一篇长达61页共计4万多单词的论文《Preparing for the Intelligence Explosion》(为智能爆炸做好准备)。

文章试图以哲学家所独有的理性、严谨和警觉,为我们描绘一个可能会很快降临的现实——智能爆炸(Intelligence Explosion):即AI能力的指数级增长导致技术进步爆发式提速,从而引发一系列社会、政治、伦理乃至文明层面的深刻变革。

我们不妨设想一幅这样的未来图景:AI可以独立完成科研、发明新理论、解决复杂工程难题;它们像流水线一样产出科学成果,远超人类的工作效率;原本需要人类几十年积累的科技进步,如今只需几个月、几天甚至几小时就能实现。

对此,MacAskill使用了一个形象的比喻:如果你把1925到2025年间的所有科技进展——从量子力学、DNA双螺旋结构,到互联网和智能手机——都压缩在1925到1935年的十年之内,那么我们的社会到底会发生什么变化呢?

答案是:我们根本无从应对,整个社会将陷入混乱,大多关键决策终将因为“赶不上趟”而酿成结构性的灾难。而AI的军备式发展,很可能让这种压缩式进步所造成的灾难更快地变为现实。

正如MacAskill与Fin Moorhouse所指出,AI的认知能力正在以惊人的速度逼近、甚至超越人类。比如:2019年的AI语言模型还语无伦次,可2023年的GPT-4却已能够准确回答博士级的科学问题;而当下的AI(如GPT-4o、deepseek等)更能在复杂编程测试中,超越绝大多数的专业程序员;尤其是在生物医学、材料科学和经济建模等领域,一个基础性的AI系统的研究效率,便可等价于数十万人类研究者。

更为可怕的是:这种进步还在不断加速。研究显示,每间隔一年,AI训练的算力便可增长约4.5倍;而算法效率也可提升足足3倍。而基于算力和算法的推理效率及部署规模也在以指数级别激增。

如果继续保持如此趋势,只需短短的五年,也就是只需等到2030年,AI的“研究能力”便能达到全人类研究能力的数百倍甚至上千倍,这意味着人类智能占据统治地位的时代将彻底终结。

这让我们不得不再度反思“进步的陷阱”,以及由此造成的种种认知误区。

首先,我们必须深知,对AI的顾虑,并不等同于只要提防它会“造反”或“失控”(诸如终结者、天网、机器人叛乱)等科幻剧情般的结局在MacAskill看来,这样的恐惧反而会掩盖更为真实、复杂的挑战,因为AI不一定非要“叛变”,才能让人类陷入危险甚至灭绝。

情况可能恰恰相反,MacAskill认为,AI发展的最大风险,并非它会变坏,而是我们应对不了它的过快发展所带来的一系列社会冲击。

首要的问题就是,到底该由谁来控制AI?因为谁控制了AI,就意味着他掌控了全人类的未来。而且,AI越是强大,其操控者就越有权威,就能轻而易举地将每一个自认为还能独立思考的头脑装进精心设计的信息囚笼之中。因此,一旦超级智能被少数科技公司或极权政府所掌控,便极有可能形成“AI毒菜”,我们的未来就可能被极少数人的意志所塑造。

那么,我们是不是可以通过更高程度的民主化,来防止“AI毒菜”呢?这恰恰是MacAskill所担忧的第二个问题:即在呼唤所谓“AI平权”而导致极端的科技民主化倾向,从而制造出极具毁灭性科技因为AI可以极大地降低诸如生物武器、纳米机器人等高危技术门槛,到那时,任何一个掌握了AI技术的人都可能拥有摧毁一座城市的能力。 

再者,我们还必须正视数字生命所引发的伦理难题。当人工智能展现出意识或类似意识的特征时,它们是否应当被赋予相应的权利?若对一个具备自我意识的人工智能执行“删除”操作,是否等同于一种“杀戮”行为?

最后,滞后的人类制度体系能应对AI的指数级发展吗?如今,人工智能技术可谓日新月异,然而政府、法律以及教育等体系,却仍以年为周期进行更新,我们似乎正在以19世纪所建立的社会制度,来应对21世纪的快速变革,这如何能不让人灰心丧气呢?

正因为此,MacAskill语重心长地指出,我们的许多关键决策,诸如数据是否应开放共享?芯片与算力是否应避免被某些国家垄断?数字生命是否应赋予基本权利?太空资源的分配是否应确保公平?这些问题,必须在超级智能出现之前进行系统性的考虑和彻底性的解决,否则,我们便只能被动地接受既定的规则和命运。

面对上述种种困局,MacAskill为我们提出了5条针对性的建议:

1.促进全球范围内的合作以防止权力的过度集中,确保人工智能技术的关键资源(如数据中心、芯片等)不被少数机构所垄断。

2.要培养具有责任感的领导者,无论是政府官员还是科技公司的CEO,都应增强伦理意识,并建立透明的治理机制。

3.要利用人工智能改革现有制度,如开发人工智能辅助的政策评估和科学决策工具,以提高政府和机构的应对能力。

4.要制定具有前瞻性的规则,至少要为数字生命、太空资源等新兴领域预先设定以人为本的规则,以争取未来的主动权。

5.要加大科普教育的推广,尤其要鼓励公众、教育者和媒体人了解“智能爆炸”并尽可能参与其中,以促进集体意识的觉醒。

总之,人工智能是否会发展为超级智能,已不再是“如果”的问题,而是“何时”的问题。当“后天”降临时,人类社会是否做好准备?是让人工智能控制我们的未来,还是我们主动塑造自我的未来?是走向科技独裁,还是坚持民主治理?是坚守固化的价值,还是保持持续的创新?这些问题的答案,取决于我们当下的每一个决策。因为未来尚未确定,我们还有筹备的机会。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值