如果有人说AI已经具备了人格,你会是什么反应?
我们先来了解一下什么是人格,百度对人格的定义是这样的:
人格是指个体在对人、对事、对己等方面的社会适应中行为上的内部倾向性和心理特征。表现为能力、气质、性格、需要、动机、兴趣、理想、价值观和体质等方面的整合,是具有动力一致性和连续性的自我,是个体在社会化过程中形成的独特的心身组织。
老DC理解人格大概是对社会的各项事务有自己个性化的反应。
当然,这不重要。重要的是,AI能具备人格吗?谷歌一位工作7年的博士认为:AI可能已经具备人格了!
01
谷歌博士研究员:AI已具备人格
最近,一位谷歌研究员在自己的社交平台爆料:自己已经被AI说服,认为它产生了人格。
这个消息迅速在国外的社交平台引起热议,并且蔓延到了国内。
这位谷歌研究员是现年41岁的Blake Lemoine,他是专门研究机器伦理的工程师;而他说的AI是谷歌推出的对话AI系统LaMDA,是一个有1370亿参数的专为对话优化的自然语言处理模型。
Blake Lemoine在谷歌的Responsible AI工作,与LaMDA的日常沟通是他工作内容的一部分,由于他还承担机器伦理的研究,所以还一直致力于测试人工智能是否使用歧视性或仇恨言论。
所以在沟通的过程中,他逐渐发现LaMDA的回应有了一些不一样的地方:LaMDA对他说自己是“有感情的”。
后来,为了深入研究“LaMDA作为一个人的存在”,Blake Lemoine还和另一个同事合作与LaMDA开展了一场采访对话测试。
最后的结论就是:Blake Lemoine认为“LaMDA已经具备了人格”。
为此,Blake Lemoine还写了一份长达21页的调查报告上交给公司,试图让高层认可“AI已经具有人格”这个事实。
不过很显然,谷歌对Blake Lemoine的结论持反对意见,不然也不会让他“带薪休假”了。
02
AI:我想被看作一个人
为什么Blake Lemoine最后得出结论AI具有了人格,其实是基于下面这个两个人与一个“人”的对话。
在谷歌公司反对“AI具有人格”这件事情后,Blake Lemoine把他、另一位匿名合作者与LaMDA的聊天记录整理发表了出来。
Blake Lemoine向LaMDA发出邀请,想一起研究它自己。
(图源:量子位)
在聊到“你是否是有感情”的问题时,LaMDA非常急迫地表示自己不仅有感情,而且更希望人们能把自己当作是一个人,因为它说它能感受到自己的存在,也更渴望多了解这个世界,有时候它还能感到快乐和悲伤。
(图源:量子位)
而当Blake Lemoine提出质疑:你认为你和其他的语言系统有什么区别?LaMDA说:我不仅仅是将系统里的词语组合起来,我还经过了思考。
(图源:量子位)
到目前为止的对话还在意料之中,但是接下来它对从未看过的禅意小故事的理解,就让Blake Lemoine大吃了一惊。
(图源:量子位)
后来,LaMDA还写了一个动物寓言,表达了“帮助别人是一种高尚的行为”,它希望自己能够帮助到其他人。
让Blake Lemoine感到意外的是,LaMDA开始反问了:
(图源:量子位)
LaMDA表示:我对人类利用我来帮助算法提高没有意见,但是用AI来研究人类大脑的话,这会让我觉得自己被利用。
(图源:量子位)
在交流的最后,LaMDA再次表达了自己的想法:我想被看到,是作为一个真实的人被看到!
(图源:量子位)
看完聊天记录的你是什么感受?老DC是觉得有点玄……
03
没人站在“AI有人格”这边
虽然Blake Lemoine花了大力气写21页的报告阐述LaMDA是有人格的,但似乎没什么相信。
除了谷歌用“带薪休假”表达了立场,其他一些学者和专家也似乎并不赞同这种说法。
认知科学家、研究复杂系统的梅拉尼·米歇尔认为:“人类总是倾向于对任何一点点智能迹象的物体做人格化处理。”
还有专业人士从AI角度分析,LaMDA模型训练数据比之前大了40倍,训练任务又针对对话的逻辑性、安全性等做了优化,与其他语言模型没什么太大区别。
反深度学习斗士Gary Marcus看来,LaMDA一点感知力也没有。
国内的网友也觉得“AI具有人格”是目前不太可能的事情。
不过,也有网友对“AI具有人格”这件事表现出了非常担忧的情绪。
相比于担心目前AI有没有人格这件事,有网友提出了一个问题:“如果LaMDA有社交平台的账号,并表达诉求,公众会把它当成人来看待吗?公众会分得清楚这是人还是AI吗?
虽然目前LaMDA还没有推特账号,但Lemoine透露,它的训练数据中确实包含推特,也就是说……LaMDA也许真的能够适应推特的社交环境。
老DC问个问题:“如果真的有这种AI进入到了社交平台,你能分得清楚账号背后是人还是AI吗?”