AI心理健康筛查:性别和种族偏见真的存在吗?

科罗拉多大学博尔德分校计算机科学家 Theodora Chaspari 领导的一项新研究表明,一些用于医疗保健的人工智能工具可能会因不同性别和种族的人的说话方式而感到困惑。

这项研究的关键在于人类社会中一个或许不言而喻的现实:并不是每个人说的话都一样。例如,女性说话的音调往往比男性高,而白人和黑人说话者之间也会出现类似的差异。现在,研究人员发现,这些自然变化可能会混淆筛查人类焦虑或抑郁等心理健康问题的算法。

越来越多的研究结果表明,人工智能就像人类一样,可以根据种族或性别做出假设。计算机科学系副教授查斯帕里说:“如果人工智能训练不充分,或者没有包含足够的代表性数据,它就会传播这些人类或社会偏见。”她和她的同事于 7 月 24 日在《数字健康前沿》杂志上发表了他们的研究成果。

查斯帕里指出,人工智能可能成为医疗保健领域的一项很有前景的技术。经过精细调整的算法可以筛选人们说话的录音,寻找他们说话方式中可能表明潜在心理健康问题的细微变化。但这位计算机科学家表示,这些工具必须对来自多个人口群体的患者表现一致。为了查明人工智能是否能够胜任这项任务,研究人员将真实人类的音频样本输入一组常见的机器学习算法中。

研究结果引发了一些警告:例如,人工智能工具似乎对那些比男性更容易患抑郁症的女性诊断不足——在现实世界中,这种结果可能会使人们无法获得所需的护理。“借助人工智能,我们可以识别人类无法感知的这些细粒度模式,”作为德克萨斯 A&M 大学的教员开展这项工作的查斯帕里说。“然而,虽然有这个机会,但也存在很大的风险。”

言语和情绪

她补充说,人类的说话方式可以成为了解其潜在情感和幸福感的强大窗口——诗人和剧作家早就知道这一点。

研究表明,被诊断患有临床抑郁症的人说话通常比其他人更轻柔、语调更单调。与此同时,患有焦虑症的人说话时音调较高,并且“抖动”程度更大,“抖动”是衡量说话时气息的指标。查斯帕里说:“我们知道,说话很大程度上受人体结构的影响。”“对于抑郁症,一些研究表明声带振动方式会发生变化,甚至声道对声音的调节方式也会发生变化。”

多年来,科学家已经开发出人工智能工具来寻找这些变化。Chaspari 和她的同事决定对这些算法进行仔细的研究。为了实现这一目标,研究小组利用了人类在一系列场景中的谈话录音:其中之一,人们必须与一群陌生人进行 10 到 15 分钟的讲话。在另一项研究中,男性和女性在类似看医生的环境中交谈了更长时间。在这两种情况下,演讲者都分别填写了有关其心理健康的调查问卷。这项研究包括德克萨斯 A&M 大学的本科生 Michael Yang 和 Abd-Allah El-Attar。

消除偏见

结果似乎完全不同。例如,在公开演讲录音中,拉丁裔参与者报告说,他们平均比白人或黑人演讲者紧张得多。然而,人工智能未能检测到这种高度焦虑。在第二个实验中,算法还标记出相同数量的男性和女性面临抑郁风险。事实上,女性演讲者出现抑郁症状的比例要高得多。

查斯帕里指出,该团队的成果只是第一步。

研究人员需要分析来自广泛人口群体的更多人的录音,然后才能了解为什么人工智能在某些情况下会失败,以及如何纠正这些偏见。但她表示,这项研究表明,人工智能开发人员在将人工智能工具引入医学领域之前应该谨慎行事:“如果我们认为某种算法实际上低估了特定群体的抑郁症状,我们就需要告知临床医生。”

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值