马斯克携115名AI专家发公开信:联合国应禁止杀人机器人

点击关注,抢跑AI世代

b52242b0692500d6dac07d54b106a197.jpeg

编译 / AI世代编译组

编译 / 金鹿

8月21日消息,据外媒报道,联合国现在必须采取行动,以禁止自主武器(又称杀人机器人)的使用。这是美国太空探索技术公司SpaceX、特斯拉电动汽车公司首席执行官伊隆·马斯克(Elon Musk),连同谷歌DeepMind联合创始人穆斯塔法·苏利曼(Mustafa Suleyman)在内的116名机器人和人工智能(AI)领域领袖人物所签署公开信中的内容,敦促联合国阻止这项技术改变我们所熟悉的冲突模式。

公开信中称:“致命的自主武器有可能成为战争中的第三次革命。一旦它们发展起来,可能导致武装冲突以比以往任何时候更大的规模进行,而且速度比人类所能理解的还要快。”这封信明确概述了自主武器的使用如何超出控制,如何落入坏人之手的细节。信中称:“这些自主武器可能成为恐怖武器,比如独裁者和恐怖分子可能对无辜人群使用。我们没有太多时间可浪费,一旦潘多拉的盒子打开,就很难再关闭。”

机器人和AI社区,以及人权组织始终认为,自主武器很可能成为冲突地区制造极端反人类罪的罪魁祸首。Campaign to Stop Killer Robots组织首席协调员玛丽·韦勒姆(Mary Wareham)称:“杀手机器人将把人类从杀戮决定中排挤出去,这跨越了我们认为不应该超越的基本道德和伦理底线。”

这封公开信发布在联合国即将就致命自主武器问题进行正式讨论之前。鉴于联合国此前已经成立政府专家小组来审查这个问题,公开信中恳求这些专家找到一种方法,来防止获得这类武器的军备竞赛。这封信是在墨尔本召开的国际AI联合会议开幕时发布的,该会议参与者都是世界领先的机器人和AI领域专家。

如信中所述,联合国小组原定于周一开始工作,但最终被推迟到11月份。随后,这封信敦促专家小组在未来几个月内“加倍努力”。这不是AI和机器人专家们首次发布警告,敦促我们需要禁止研发军事机器人。2015年,马斯克、物理学家史蒂芬·霍金(Stephen Hawking)以及苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等3000多名AI研究人员曾签署公开信,要求禁止开发“超过人类控制意义之外的自主武器”。当时,研究人员们说,AI军备竞赛是个“糟糕的主意”。2年后,新的公开信中警告说,糟糕的主意可能引发灾难。(编译/金鹿)

推荐阅读

腾讯研究院重磅报告!中美两国人工智能产业发展全面解读

中国真能称霸人工智能?外媒觉得有戏!

2025年,金融业23万人类岗位将被机器人取代

腾讯出了一款AI产品,早期癌症筛查准确率最高达90%

屹立40年不倒的“西洋跳棋之王”,是如何被AI战胜的

0a501048f9b4c21e3fc5887b99a311e7.gifbe835066c4eede8902d8a480238405e0.jpeg

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值