“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注!
具有同理心的个性化AI
1.Empathic AI can’t get under the skin. Nat Mach Intell 6, 495 (2024). https://doi.org/10.1038/s42256-024-00850-6(Editoral)
具有同理心的个性化AI
引语:个性化的、具有同理心模拟能力的LLM(大型语言模型)即将问世。对个体用户的影响需要仔细考虑。
人类很容易在聊天机器人中识别出类似人类的特质和能力。德裔美国计算机科学家约瑟夫·魏岑鲍姆(Joseph Weizenbaum)在20世纪60年代就发现了这种效应,他创建了一个名为ELIZA的程序,该程序被广泛认为是第一个聊天机器人。用户输入陈述,程序生成可以模拟人与计算机之间自然语言对话形式的响应。与今天的LLM(大型语言模型)相比,ELIZA非常原始,主要通过识别“关键词”和执行“文本操作”来运行。许多用户都被迷住了,当与聊天机器人互动时,他们感知到了理解或同理心等人类特征。魏岑鲍姆对于这种幻觉的力量感到惊讶和沮丧,并对过度依赖人工智能(AI)及其破坏人类价值观表示担忧。
几十年后,LLM能够进行流畅的类似人类的对话,根据需要以任何风格产生输出。鉴于LLM的广泛可用性和流行性,以及个性化聊天机器人到用户特定数据的新兴能力,人类倾向于在计算程序中投射人类特质的倾向需要进一步审查,考虑到对个体用户和社会可能产生的广泛影响。
考虑一种越来越被LLMs(大型语言模型)模仿的人类能力与特质:同理心——理解和分享他人感受的能力。LLMs以浪漫聊天机器人、个人助理、心理健康应用程序或治疗师的形式,可以给用户一种理解、同理心、关怀和爱的感觉。然而,语言模型无法体验这些心理状态,这使得作者提出了一个有趣的问题:如果同理心AI没有同理心,这有关系吗?
具有同理心的AI在伦理方面的若干问题
2. Shteynberg, G., Halpern, J., Sadovnik, A. et al. Does it matter if empathic AI has no empathy?. Nat Mach Intell 6, 496–497 (2024). https://doi.org/10.1038/s42256-024-00841-7(Correspondence)
具有同理心的AI在伦理方面的若干