「译」微软正在开发AI新工具

欢迎关注天善智能,我们是专注于商业智能BI,人工智能AI,大数据分析与挖掘领域的垂直社区,学习,问答、求职一站式搞定!

对商业智能BI、大数据分析挖掘、机器学习,python,R等数据领域感兴趣的同学加微信:tsaiedu,并注明消息来源,邀请你进入数据爱好者交流群,数据爱好者们都在这儿。


作者:Kyle Wiggers

来源:VentureBeat

参与:Cynthia

翻译:本文为天善智能编译,未经容许,禁止转载

3901436-0f10f1f743798fd7

微软正在开发一种可以在人工智能算法中检测出偏差的工具,用于帮助企业在使用人工智能时规避产生偏见的风险。

微软的偏见检测工具的高级研究员Rich Caruana将其描述为一个“仪表盘”,工程师可以将其应用于已训练人工智能模型。在麻省理工科技评论(MIT Technology Review)的采访中他说:“透明度、可理解性和解释都是新的领域,我们当中很少有人有足够的经验去了解我们应该寻找的所有东西,以及我们的模型中可能潜藏的偏见。”

算法的偏倚问题正越来越突出。本周在波士顿举行的深度学习峰会上,哈佛大学机器学习讲师、罗德岛大学的首席信息官Gabriele Fariello说,在人工智能领域今天的道德和偏见的处理中存在“重大的问题”。他说:“在医疗保健、司法系统以及其他直接影响你生活的地方,都有存在决定。”

3901436-3fcac41a08251779

算法偏差的列表似乎在逐年增长。Northpointe的Compas软件,利用机器学习来预测被告是否会犯下未来的罪行,被发现相比白人被告更严厉地审判黑人被告。来自波士顿大学和微软的研究表明,用于教授人工智能程序的数据集包含了性别歧视的语义连接,例如,认为“程序员”这个词更接近“男人”这个词,而不是“女人”。麻省理工学院媒体实验室进行的一项研究表明,面部识别算法对深色皮肤男性的识别率比识别浅色皮肤的男性高出12%。

微软并不是唯一一个试图降低算法偏差的公司。今年5月,Facebook发布了Fairness Flow,当一个算法对一个人基于他或她的种族、性别或年龄做出不公平的判断是,它会自动发出警告。IBM的沃森和云平台集团最近的研究也集中于减轻人工智能模型的偏见,特别是在与面部检测有关的方面。


原文地址:https://venturebeat.com/2018/05/25/microsoft-is-developing-a-tool-to-help-engineers-catch-bias-in-algorithms/

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看REAdMe.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看REAdMe.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看READme.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值