
前言
上两篇讨论了模型的可解释性和安全性,也给出了些解决方案,相对比较硬核,这一篇聊一下人工智能的正义性,虽然通俗很多,但却是最难的部分...
正义性
AI不作恶
Don't Be Evil曾是Google提出的口号,不管他自己做没做到,至少指明了一个方向。技术即使不能为善,至少不能为恶。但现实中的选择,总陷入一个"不好"和一个“更不好"之间的困境,无论怎么选都很难。
人工智能的原则
之前有个TED的讲座里,提到了AI的几大原则:
对社会有益。
避免制造或强化不公平的偏见。
为安全而构建和测试。
对人负责。
纳入隐私设计原则。
坚持科学卓越的高标准。
可用于符合这些原则的用途。
不应该使用AI的场合:
造成或可能造成整体伤害的技术。
主要目的或实施是造成或直接促进对人的伤害的武器或其他技术。
收集或使用违反国际公认规范的监视信息的技术。
其目的违反广泛接受的国际法和人权原则的技术。
数据集不平衡
曾经 PULSE 算法将一张低质量的巴拉克•奥巴马(Barack Obama)照片进行了高倍放大,从而输出了一张高分辨率的白人照片。这种偏差问题在机器学习中非常普遍,因为人脸识别算法在非白人和女性面孔上的数据收集较少。AI工程师很容易理解这仅仅是数据集不平衡的因素,非主观歧视,但作者还是被大众骂上了热搜。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



