【Manning新书】可解释人工智能: 构建可解释机器学习系统

48bf5c960ff1ec022bdcd0bc6b12dc34.png

来源:专知
本文约800字,建议阅读5分钟
可解释性AI是打开AI黑盒的解释性技术的实践指南。

b9adfc3b50facbbdcb1495c3448bd83e.png

可解释性AI是打开AI黑盒的解释性技术的实践指南。本实用指南将前沿研究简化为透明和可解释的AI,提供实用的方法,您可以轻松地用Python和开源库实现。从所有主要的机器学习方法的例子,这本书演示了为什么AI的一些方法是如此的不透明,教你识别你的模型已经学习的模式,并提出了建立公平和公正的模型的最佳实践。当你完成这一任务时,你将能够提高你的AI在训练中的表现,并构建鲁棒系统来抵消偏差、数据泄漏和概念漂移带来的错误。

https://www.manning.com/books/interpretable-ai

随着图像识别、自然语言理解和桌面游戏等领域的突破,人工智能和机器学习正在彻底改变医疗、制造、零售和金融等各个行业。随着复杂的机器学习模型被部署到生产中,理解它们变得非常重要。缺乏深刻的理解会导致模型传播偏见,我们在刑事司法、政治、零售、面部识别和语言理解中都见过这样的例子。所有这些都对信任产生不利影响,从我的经验来看,这是企业抵制在整个企业部署人工智能的主要原因之一。解释人工智能是研究和行业的一个热门话题,因为现代机器学习算法是黑盒,没有人真正了解它们是如何工作的。此外,在GDPR的“解释权”下,欧盟现在有解释人工智能的规定。因此,对于人工智能从业者来说,可解释性人工智能是一个非常重要的话题。有一些资源可以与这个活跃的研究领域保持同步,如调研论文、博客文章和一些书籍,但没有一个单一的资源涵盖所有对实践者有价值的重要技术。也没有关于如何实现这些尖端技术的实用指南。本书旨在通过提供对可解释性技术的简化解释,以及如何在Python中使用开放的公共数据集和库实现这些技术的实用指南,来填补这一空白。本书将展示代码片段,并分享源代码,以便您跟随和再现书中的图形和视觉效果。这本书旨在为您提供实现和部署最先进的可解释性技术的实用技巧。具备概率论、统计学、线性代数、机器学习和Python的基本知识。

19e028cfb6800b118860063bfd3dead4.png

2b944e1f1839a2f576e91222a2802848.png

848bdcd80afdb0c2a06abc1f07120b5d.png

4da6c46706abeea40ad510e62c3e5f93.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值