防止人工智慧学习歧视 IBM开始著手修正

研究发现,人工智能不只学了人类好的部分,也学了种族与性别歧视等坏的部分,IBM实验室现在开源了AI Fairness 360(AIF360)工具包,用来减轻人工智能的学习偏差。

机器学习逐渐可以代替人们做出高风险的决策,IBM提到,虽然机器学习的本质就是一种统计歧视(Statistical Discrimination)的形式,但是当部分拥有特权的群体处于系统优势的时候,歧视会变得令人反感。机器学习的训练数据,无论是采样不足或是过度采样,甚至标签存在偏差,最终都会造成不良的模型。

IBM着手修正人工智能可能存在的偏差问题,现在对外开源AIF360项目,这是一个Python软件套件,由广泛的算法平等研究社群开发,内含有9种不同的算法,开发者能以类似Scikit-learn函式库的范式,呼叫使用这些算法。AIF360不仅仅是提供人工智能模型的偏差指针,更是提供减轻偏差的方法,并专注于可用性与软件工程改良上。

AIF360内建3个范例,领域包括信用评分、预测医疗支出以及以性别分类脸部图片。IBM表示,虽然他们过去已经在健康保险领域上,与许多客户合作多年,针对特定人群量身订做保险方案,但是就从未加入算法评等研究。而这个结果离真正公平的结果是有一段差距的。

AIF360能以交互式的体验,引导使用者了解套件的概念以及功能,开发者可能会在一开始对于不同案例使用的指针或是算法产生困惑,AIF360则会提供参考数据作为引导。IBM期望,透过这个开源项目可以凝聚相关研究人员,并把研究成果转换成各产业可以使用的解决方案。

文章转自:http://www.wehub.org.tw/post.asp

转载于:https://my.oschina.net/u/3705430/blog/2208433

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值