开发情绪识别人工智能时的道德考量

情绪调节人工智能是机器学习领域的最新技术进步之一。尽管它显示出巨大的潜力,但道德问题将影响其采用率和寿命。人工智能开发人员能克服这些问题吗?

什么是情绪识别人工智能?

情绪识别人工智能是一种机器学习模型。它通常依赖于计算机视觉技术,捕捉和分析面部表情,以解读图像和视频中的情绪。然而,它也可以对音频片段进行操作,以确定语音或书面文字的语调,以评估语言的情感。

这种算法代表了人工智能领域的一项令人着迷的进步,因为到目前为止,模型还无法理解人类的情感。虽然像 ChatGPT 这样的大型语言模型可以令人信服地模拟情绪和角色,但它们只能将单词逻辑地串联在一起——它们无法感受到任何东西,也无法表现出情商。 虽然情绪识别模型无法产生情感,但它仍然可以检测和分类情感。这一进展意义重大,因为它表明人工智能可能很快就能真正理解和表现快乐、悲伤或愤怒。这样的技术飞跃表明进步正在加速。

人工智能情绪识别的用例

企业、教育工作者、顾问和心理健康护理专业人士是可以使用人工智能进行情绪识别的一些群体。

评估办公室风险

人力资源团队可以使用算法对团队成员之间的电子邮件通信或应用内聊天进行情绪分析。或者,他们可以将算法集成到监控或计算机视觉系统中。用户可以跟踪情绪来计算离职风险、倦怠率和员工满意度等指标。

协助客户服务人员

零售商可以使用内部 AI 客服代理为最终用户提供服务,也可以使用虚拟助理来解决压力很大的情况。由于他们的模型可以识别情绪,因此当它意识到消费者生气时,它可以建议缓和情绪的技巧或改变语气。这些对策可能会提高客户满意度和留存率。

在课堂上帮助学生

教育工作者可以使用这种人工智能来防止远程学习者落后。一家初创公司已经使用其工具测量学生脸上的肌肉点,同时记录他们的速度和成绩。这种方法可以确定他们的情绪、动机、优势和劣势。这家初创公司的创始人声称,使用该软件后,他们的测试成绩[提高了 10% 。(https://www.cnn.com/2021/02/16/tech/emotion-recognition-ai-education-spc-intl-hnk/index.html)

进行内部市场调研

企业可以使用情感识别模型进行内部市场研究。它可以帮助他们准确了解目标受众对其产品、服务或营销材料的反应,为他们提供有价值的数据驱动见解。因此,他们可以加快上市时间并增加收入。

使用人工智能检测情绪的问题

研究表明,准确率高度依赖于训练信息。一个研究小组试图从图像中解读情感,他们的模型在日本女性面部表情数据集上的准确率达到 92.05%,在扩展的 Cohn-Kanade 数据集上的准确率达到 98.13%,这证明了这一概念。

虽然 92% 和 98% 之间的差异似乎微不足道,但它却很重要——这种微小的差异可能会产生重大影响。作为参考,数据集中毒率低至 0.001%已被证明可以有效建立模型后门或故意造成错误分类。即使是百分之几也是很重要的。

此外,尽管研究看起来很有希望——准确率超过 90% 显示出潜力——但研究人员是在受控环境中进行的。在现实世界中,模糊的图像、虚假的面部表情、不良的角度和微妙的感觉更为常见。换句话说,人工智能可能无法始终如一地发挥作用。

情绪识别人工智能的现状

算法情绪分析是使用算法确定文本语气是积极、中性还是消极的过程。这项技术可以说是现代情绪检测模型的基础,因为它为算法情绪评估铺平了道路。面部识别软件等类似技术也为这一进步做出了贡献。

当今的算法主要只能检测出快乐、悲伤、愤怒、恐惧和惊讶等简单情绪,准确度各不相同。这些面部表情是天生的、普遍的——这意味着它们是自然的、全球都能理解的——因此训练人工智能识别它们相对简单。

此外,基本的面部表情往往被夸大。人们生气时会皱眉,悲伤时会皱眉,高兴时会微笑,震惊时会睁大眼睛。这些简单而戏剧性的表情很容易区分。更复杂的情绪更难确定,因为它们要么很微妙,要么结合了基本的面容。

由于这部分人工智能还处于研发阶段,它还没有发展到能够理解渴望、羞耻、悲伤、嫉妒、宽慰或困惑等复杂情感的程度。虽然它最终可能会理解更多情感,但并不能保证它能够解释所有这些情感。

事实上,算法可能永远无法与人类竞争。作为参考,虽然 OpenAI 的 GPT-4 数据集大约为 1 PB,但人类大脑的 1 立方毫米包含约 1.4 PB 的数据。尽管经过数十年的研究,神经科学家仍无法完全理解大脑如何感知情绪,因此构建高精度人工智能可能是不可能的。

虽然使用该技术进行情绪识别已有先例,但从技术上讲,该领域仍处于起步阶段。关于该概念的研究很多,但现实世界中大规模部署的案例却很少。一些迹象表明,由于担心准确性不一致和道德问题,该技术的应用可能滞后。

人工智能开发者的道德考量

根据一项调查,67% 的受访者同意人工智能应该受到一定程度甚至更多的监管。为了让人们安心,开发人员应该尽量减少偏见,确保他们的模型表现符合预期并改善结果。如果他们在开发过程中优先考虑道德问题,这些解决方案是可能的。

1. 自愿的数据收集和使用

在人工智能监管日益严格的时代,同意就是一切。如果员工发现自己的面部表情在不知情的情况下被记录下来,该怎么办?家长是否需要签署基于教育的情绪分析,还是学生可以自己决定?

开发人员应明确披露模型将收集哪些信息、何时运行、分析将用于什么目的以及谁可以访问这些详细信息。此外,他们还应包括选择退出功能,以便个人可以自定义权限。

2. 匿名情绪分析输出

数据匿名化既是隐私问题,也是安全问题。开发人员应该将收集的情绪信息匿名化,以保护相关人员。至少,他们应该认真考虑利用静态加密。

3. 人机交互决策

使用人工智能确定某人情绪状态的唯一原因是为决策提供信息。因此,无论是在心理健康领域还是在零售环境中使用,它都会对人们产生影响。开发人员应利用人机交互保护措施来最大限度地减少意外行为。

4.以人为本的人工智能输出反馈

即使算法的准确率接近 100%,也会产生误报。考虑到模型达到 50% 或 70% 的情况并不罕见(这还没有涉及偏见或幻觉问题),开发人员应该考虑实施反馈系统。

如果人们认为人工智能对其情绪状态和诉求的评价是错误的,他们应该能够对其进行审查。虽然这样的系统需要护栏和问责措施,但它可以最大限度地减少不准确输出带来的负面影响。

忽视道德的后果

道德考量应成为人工智能工程师、机器学习开发人员和企业主的首要任务,因为这会影响到他们。考虑到公众舆论越来越不确定,监管越来越严格,忽视道德的后果可能很严重。

  • 19
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

知来者逆

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值