为防AI被滥用,微软挥泪“斩”客户


本文由人工智能观察编译

译者:Sandy

微软研究实验室Microsoft Research Labs的技术研究员兼主管Eric Horvitz表示鉴于人们对人工智能技术可能遭到滥用的担忧,微软决定“斩断”其部分客户。


本周一,卡内基梅隆大学—K&L Gates道德与人工智能大会在匹兹堡举行。会上,Horvitz阐述了微软对AI道德的承诺。在微软,他们有一个专门关注这一问题的监督伦理委员会Aether,它代表了工程研究中的人工智能与道德标准。

对此,Horvitz表示:“这是我们的努力...很高兴,这个委员会‘无话不说’”为什么这样说呢?因为该委员会审查微软的AI技术如何被其客户使用,并且会直接向高级领导层提出建议。


公司主要的产品销售已经暂停,”Horvitz道。“而在其他销售中,各种具体的限制都被写在了使用说明中,包括在人脸识别或此类预测中可能不会使用数据驱动模式来进行识别等。


尽管Horvitz提到了微软的人权承诺,但没有Aether委员会的工作做出详细解释,比如哪些客户或者特定的应用程序已被排除在外


过去一年多,微软一直为政府和行业客户提供基于云计算的微软认知服务,包括人脸识别和情感识别。而在Facebook数据泄露事件发生后,关于人工智能和数据分析的伦理问题受到了更多人的关注。


Facebook事件中,涉及最大的问题是Cambridge Analytica利用该公司的数据锁定了选民Horvitz看来,操纵选民是AI应用程序被滥用的情况之一,同时,这也助长了侵犯人权的行为,增加了发生死亡事件或者出现重度伤害的风险。


Horvitz认为解决这些问题可能需要新的监管计划甚至可能有办法让人工智能进行自我监督。


“你可以想象一下,让系统拥有自我监督的能力。”


这样一个自动化后的程序可能有助于微软避开它与Tay之间曾产生的问题,Tay是千禧一代的人工智能代理,2016年曾被线上恶意者教授发表种族主义言论。Horvitz承认,“这是一个很糟糕的例子。

对于人工智能代理来说,最有效或者说最没有问题的情况,大概是人类为其做了“后台设置”


Horvitz指出,现在微软AI程序能够识别30天内两次住院的患者,这可以帮助护理人员对这部分患者多加关注一项对该计划的学术评估确定,它可以将患者再次入院的概率降低18%,同时将医院成本降低近4%。


不过,对Horvitz来说,理想的情况是人类和机器一起工作。比如,人工智能代理可以预料到人类专家可能会忽略的问题但是,人工智能代理也可能存在盲点,近期引起人们高度关注的无人驾驶车祸事件就说明了这一点。


Horvitz表示,未来几年会寻找适当的时机将人工智能技术推向更广阔的市场,全面披露分阶段试验的程序、报告试验结果,甚至在必要的时候提出故障安全设计的过程。目前,微软的研究方向之一预测AI代理可能面临的盲点或一切“未知”的事情


总之,不管未来是焦虑的AI,还是带有道德规范或自我监督的AI,似乎人工智能正在朝着更全面的方向发展

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值