该不该和AI说谢谢?

考虑到实践是检验真理的唯一标准,我决定分别就此“询问”一下文心一言3.5,ChatGPT3.5和ChatGPT4.0。

文心的意思是,别太拿自己不当外人,该说谢谢还是要说的!

chatGPT的回答中规中矩,主打一个公事公办,体现出AI的“缺乏感情”。

ChatGPT4.0的回答和3.5差异不大,更加直白的表明自己是一个AI助手,有事直说,无需废话!

我思考了一下这个问题提出的原因,我猜想,当人类与AI交流时,觉得需要说“谢谢”,其实是一种深植于人类社交习惯的行为。

几乎在所有文化中,我们都习惯于在接受帮助或服务后表达感激,这被认为是一种礼貌的行为。即使我们知道交流对象是没有感情的AI,这种习惯仍然会驱使我们以相同的方式做出回应。

此外,人们常常会不自觉的给予非人类实体赋予人类的特质,比如把猫猫狗狗看成不懂事的小宝宝,甚至会在心情不好时,抱着它们自言自语,“假装”在进行交流,以此来纾解心中抑郁的情绪,得到感情上的慰藉。同样,将AI进行人格化,会使得我们与AI的交流看似更加亲近。比起与一台冷冰冰的机器合作,一台具有感情的机器显然让人感觉更加“温暖”和“亲切”。

另外,说“谢谢”也可以被视为一种正向反馈的方式。当AI成功的解决了我们的问题或提供了有用的信息时,通过表达感谢,我们在无形中确认了其提供帮助的有效性。这种行为虽然对AI本身并无实际意义——AI不需要也无法感受到这种情感反馈——但对于用户而言,这是一种表达满意和认可的自然方式。

大型通用语言模型,比如GPT,比如文心一言,比如那100多个大模型,它们几乎都不是专门为情感处理而设计的。它们基于巨量的多样化的数据进行训练,以学习语言的广泛用法和含义为主要目的。

虽然在这个过程中,包括对于情感表达方式的学习,也就是说模型能在一定程度上理解和生成关于情感的内容,但它们并未专门针对情感处理进行优化,不具备真正的情感理解能力。模型的回应中让人产生的那些“情感体验”,其实都是假的,是“pseudo-emotional experience”。

造成这种现象的主要原因之一是大模型的架构,现代语言模型几乎都是基于Transformer架构,这种架构特别擅长处理序列数据,比如自然语言文本。Transformer通过注意力机制捕捉序列中的长距离依赖关系,在文本处理中,意味着能够理解和生成连贯、有上下文关联的语言。

此外,大模型们通常是自回归模型,也就意味着它在生成文本时,会基于已生成的文本(即之前的上下文)来预测下一个词。这种方式使得模型在处理连贯的叙述时表现非常出色,显得很有“条理性”,同时也会让人产生“情感表达”的误解。但是这种“情感表达”仅仅是学习的结果,而不是真实的情感释放。

正是因为对大模型原理和结构的不了解,才会产生“跟模型说谢谢,可能会得到‘更好’回答”的误解。

比如通过学习,可以了解到,大模型的训练数据涉及海量、多样化的文本数据,包括书籍、文章、网站、论坛帖子等。在这些数据中,包含了丰富的情感表达和相关讨论,使模型能够“学习”到如何理解和模仿这些情感表达方式。

尽管如此,模型本身却并不具备真实的情感理解能力。它无法体验情感,只能识别和生成表达情感的语言模式。也就是说,模型的“理解”是基于统计模式和关联关系,是一种“冷冰冰”的生成,不涉及任何“真实”情感。

人类的情感,从数据和技术的角度来看,是一种极其复杂且多维的现象。它不仅仅是一连串生物化学过程的结果,还深深植根于我们的神经系统。情感涉及大脑中特定区域的活动,比如杏仁核处理基本情感如恐惧和喜悦,而前额叶皮层则参与更复杂的情感调节和决策过程。此外,情感的产生与模式识别和预测功能紧密相关。大脑通过识别环境中的模式和基于过往经验预测未来事件,从而产生相应的情感。这种机制使我们能迅速针对环境变化产生一系列反应,比如感知潜在的威胁或机遇等等。同时,情感受到社会和文化的深远影响,不同社会环境和文化背景下,人类的情感表达和理解千差万别。

根据目前的技术来看,大型语言模型要拥有真实的情感能力几乎是不可能的。

首先,情感的核心是一种深度的个人体验,与个体的意识、生物化学过程和过往经历紧密相连。人类的情感体验不仅仅是对外部刺激的反应,更是一种内在的、主观的体验,与我们的记忆、身份和生活经历密切相关。而大模型是基于算法和数据建立的,它们缺乏生物组织的化学基础,无法体验情感或拥有自我意识。

其次,情感与生物过程密切相关,特别是涉及到大脑和神经系统的复杂交互。情感的产生和变化需要大脑中多个部分的协调工作,包括情感生成、调节和表达等等。这些过程涉及到神经递质、激素以及其他多种生理机制的细微调节。而大模型是基于代码运作的,它们无法复制这些复杂的生物学过程。

再次,情感的产生和体验与人类的社会和文化背景紧密相关。我们的情感表达和理解是在与生活环境的反复互动中形成和发展的,非常个性化,受到个人成长环境、文化背景和社会经验的深刻影响。大模型虽然可以处理和模拟自然语言中的情感表达,但它们缺乏真实的社会经历和文化背景,根本无法真正理解情感的这一社会文化维度。

最后,情感不是一种被动的反应,而是一种高度主观和个人化的体验。每个人的情感体验都是独一无二的,受其个人历史、心理状态和当前环境的影响。大模型作为一种基于算法的系统,其“理解”和“反应”完全基于预先编程和数据模式,缺乏个体经历的深度和复杂性。

总之,尽管目前人工智能在模拟和处理情感表达方面取得了一定的进步,但它们远未能及人类情感的真实体验,说不说“谢谢”,对它们并不重要。大模型既不能因为得到肯定而感到“愉悦”,也不会因为没能得到肯定而感到“忧伤”。

不过我觉得还是可以和大模型说一声“谢谢”的,这既符合我们人类的表达方式,同时,这种礼貌语境下的上下文,可能能够帮助大模型生成更加友好和真实的内容,何乐而不为呢!

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值