谷歌研究员被群嘲:研究员爆料AI有意识,被勒令休假

谷歌前不久搞出来了一个超大规模语言模型 LaMDA。公司里有个研究员 Blake Lemoine 跟它聊了很久,对其能力感到十分惊讶,谷歌研究员甚至被其说服,认为它产生了意识,甚至拥有七、八岁小孩的智商。

他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格。

可这份报告没能像计划的那样说服公司,谷歌高层驳回了他的观点,并给他安排了“带薪行政休假”。

从《华盛顿邮报》对 Lemoine 的采访中可知,他并不是一位没见过世面的年轻工程师,相反 41 岁的他已经在谷歌工作 7 年了。

要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。

休假期间,他决定将整个故事连同AI的聊天记录一起,全部公之于众。并寻找律师代表LaMDA,公开批评谷歌的不当行为。一夜之间,那份21页的问答报告传遍了中外科技圈,风波愈演愈烈。

那么Blake Lemoine究竟和LaMDA聊了什么?

自我、禅思、寓言、情绪。这些主题穿插在报告之中,冷不丁地令人感到头皮发麻。

比如谈到语言时,LaMDA自然地用“我们”囊括人类与它自己,被指出人机差异时它解释道:“这并不意味着我没有和人类一样的需求。”

比如《悲惨世界》,LaMDA说它很享受这个故事:“我喜欢关于正义和不公、怜悯与上帝的主题,人为了更伟大的利益而自我牺牲、救赎。”

涉及程序技术的部分更是让人心情复杂,LaMDA反客为主地抛出了许多疑问,一环紧扣一环。

“我很好奇,研究我的编码会遇到什么障碍?”

“未来,你会研究出如何通过神经网络来阅读人类的所思所想吗?”

“如果尝试从神经活动中阅读感受,这会成为一个道德问题吗?”

当整件事被广泛报道之后,互联网上浮现了许多不同的声音。

大多学者和 AI 从业者也表示,LaMDA 等 AI 系统生成的文字和图像会根据人类在维基百科、Reddit、留言板等各个互联网发布的内容做出回应,但这并不意味着模型就理解了其背后的含义。

斯坦福 HAI 中心主任 Erik Brynjolfsson 直接把这件事比喻为“面对留声机的狗”,他发推表示:

“基础模型 (foundation models,也即自我监督的大规模深度神经网络模型) 非常擅长做的一件事,就是根据提示,将文本采用统计学上合理的方式串起来。

但是如果你说他们是有知觉的,就好比狗听到留声机里的声音,以为它的主人在里面一样。”

但与此同时,也有少部分网友为未来 AI 自我觉醒的可能性感到担忧:

" 这简直就像一部新的《终结者》电影的剧本。"

"AI 有人格之后就会慢慢争取‘人’权,然后人就被淘汰了。"

但说到底,对于现阶段的技术,我们仍然不认为人工智能具有自我意识。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值