我们的技术文明命悬一线:AI真的会引发宇宙灭绝事件吗?|TodayAI

在一篇新的、引人深思的论文中,一位来自英国的科学家探讨了一个问题:所谓的“人工智能”(AI)是否可能是我们至今未在宇宙中发现其他智慧生命的原因之一。该科学家参考了费米悖论,这个悖论提出了一个问题:在如此浩瀚的宇宙中,为何我们未曾接收到来自其他文明的无线电信号?他提出了一个观点,认为一旦文明发展出AI,对于他们中的大多数来说,灭亡可能只是时间问题。这种灾难性的事件被称为大过滤器(Great Filter),而关于这个问题的讨论中,AI是其中一个广受关注的话题。他进一步推测,技术文明不可避免地向AI发展,这是否导致了我们从宇宙中感受到的那种不可思议的寂静?

迈克尔·加勒特,来自曼彻斯特大学的射电天文学家,同时也是乔德雷尔银行天体物理中心的主任,他在搜寻地外文明(SETI)领域有着广泛的经验。他的研究兴趣很广泛,但你可以把他看作是那些电视节目或电影中,用高级设备倾听宇宙以寻找外星文明迹象的专家的现实版。在他最近发表的一篇论文中,他利用射电天文学来分析和对比人工超级智能的理论与实际观测结果。这篇论文已经通过同行评审,并在国际宇航学院的期刊上发表了。

在他的论文中,加勒特指出,科学家们越来越感到不安,因为随着时间的推移,我们未能发现任何其他智慧生命的迹象。他提到:“这种‘大静默’,也就是我们没有听到外星智慧生命的声音,与其他表明宇宙适合智慧生命存在的天文学发现形成了一种悖论。”他进一步解释说,通常人们会谈到“大过滤器”的概念——这是一种普遍存在的障碍,它构成了一个巨大的挑战,阻止了智慧生命在广泛地区的出现。

 

有很多种可能成为大过滤器的因素,比如气候灭绝或者全球大流行病这样的灾难。这些事件都有可能阻碍全球文明发展到可以跨星球的阶段。对于那些认真考虑大过滤器理论的人来说,他们认为人类在火星或月球上建立定居点可能是减少风险的一个方法。当然,要让这些外星定居点变得可持续和自给自足,我们可能还需要很长时间。我们越是只局限于地球,发生阻碍我们发展的大过滤器事件的可能性就越大。

目前,AI还没达到能够接近人类智能水平的地步。不过,加勒特指出,AI已经开始做一些人们之前认为计算机无法完成的工作。他提到,如果这种发展趋势最终导致了所谓的通用人工智能(AGI)——这种算法能够以真正类似人类的方式进行推理和综合思考,再加上惊人的计算能力——我们可能会遇到大麻烦。在他的论文中,加勒特通过一系列的假设推导,提出了一个问题:一个文明被它自己创建的、失控的AGI摧毁需要多长时间?

 

不幸的是,根据加勒特的分析,我们只需要100到200年就可能会被我们自己开发的AI摧毁。他解释说,开发AI主要涉及数据处理和计算能力,这是一个相对单一的领域,比起复杂多变的太空旅行和定居活动来说简单许多。现在的情况是,越来越多的研究人员投身于计算机科学领域,而生命科学则面临着人才短缺的问题。每天,社交媒体上都有亿万富翁在大谈特谈在火星上定居的伟大意义,然而我们却仍然不清楚人类如何在长途太空旅行中避免受到宇宙辐射的严重威胁。

关于这项研究,有一些警示和重要的点需要记住。加勒特通过一系列假设的场景进行了详细分析,并依赖了一些很大的假设。他认为,银河系中存在生命,并且AI及GAI是这些文明的“自然发展”路径。他还用到了德雷克方程——这是一个尝试量化其他行星文明可能数量的方法,尽管我们对其中几个关键变量还知之甚少。

 

 

尽管基于这些混合假设,他的论证提出了一个强有力的结论:对AI进行严格和持续的监管是必要的。加勒特指出,全球各国已经在生产力竞赛中争先恐后,担心如果他们在监管上犹豫不决会错过机会。还有一些误导的未来主义者奇怪地认为,他们可以通过更快地开发一个具有道德的GAI来控制它——这实际上是一个没有意义的观点。

研究显示,在进入AI阶段后,这些假设的文明仅存在了几百年,之后便从历史舞台上消失。在宇宙的漫长时间和巨大距离中,这种存在的短暂性几乎无法留下任何痕迹,这与搜寻地外智慧(SETI)项目当前0%的成功率相符。加勒特警告说,如果不实施有效监管,AI可能对我们的技术文明乃至其他所有技术文明的未来构成重大威胁。

 

  • 13
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值