Facebook开源模型可解释库Captum,这次改模型有依据了


作者 | Narine Kokhlikyan, Vivek Miglani, Edward Wang, Orion Reblitz-Richardson

译者 | Rachel

出品 | AI科技大本营(ID:rgznai100)

 

【导读】前脚 TF 2.0 刚发布,在 PyTorch 开发者大会首日也携 PyTorch1.3 版本而来。除此之外,还发布了隐私保护机器学习框架 CrypTen、模型可解释库 Captum 和下一代目标检测/目标分割研究平台 Detectron2。这篇文章介绍的是Facebook 在深度学习的可解释性问题上发布的新成果——Captum。

 

目前,机器学习模型已经在多个领域得到了广泛应用,并对数亿的人群产生影响。随着模型在工业领域的应用不断拓展,模型的结构也正在变得更加复杂。对于机器学习的开发者而言,深入理解模型的原理并具备对他人解释原理的能力非常重要。

 

而 Facebook 发布的 Captum 是一个基于 Pytorch 的一个模型解释库,其功能强大、灵活且易于使用。该库为所有最新的算法提供了解释性,帮助研究人员及开发者更好地理解对模型预测结果产生作用的具体特征、神经元及神经网络层。Captum 通过包括可视化和文本在内的多种形式提供模型解释,并为新算法的设计提供了可拓展性。通过使用 Captum ,研究者还能够以 Pytorch 库中的算法为基准,快速对自己的算法进行评估。

 

对模型开发者而言,通过使用 Captum 来识别模型中对结果产生较大影响的特征,开发者能够更快速地对模型效果进行提升,并对模型的不合理输出进行调试。在这一版本中,我们也提供了 Captum Insight 的试用版,该库基于 Captum 构建,提供了解释性的可视化功能。 

 

Captum Insight 能够处理包括图片、文字等类型在内的多种特征,并帮助用户理解特征的属性。目前,该库实现了对 Integrated Gradients 算法的支持,在未来我们还将加入对更多算法的支持。更多信息参见 captum.ai 。

 

地址:

https://www.captum.ai/

 

640?wx_fmt=png

 

Captum 实现了对最新的解释性算法的支持,包括 Integrated Gradients, DeepLIFT 和 Conductance。通过使用 Captum ,开发者可以理解特征的重要性,并对神经网络的神经元和网络层的属性进行更加深入的了解。

 

Captum 提供了对 Pytorch 生态系统中多种类型数据的无差别解释能力,能够帮助用户开发更好的模型,并进行相关研究。

 

包括 Captum 在内的模型解释库能够帮助工程师开发更加可信赖、可预测、效果更优的人工智能系统。通过对系统工作原理进行解释,工程师也能够为决策过程提供信息,并与他人建立可信赖的联系。另外,随着多模态模型的不断出现,模型解释库对多种类型的信息提供无差别解释和可视化的能力将变得更加重要。

 

Captum 的 Github 地址:

https://github.com/pytorch/captum

640?wx_fmt=png

原文链接:

https://ai.facebook.com/blog/open-sourcing-captum-a-model-interpretability-library-for-pytorch

(*本文为 AI科技大本营编译文章,载请微信联系 1092722531



精彩推荐



2019 中国大数据技术大会(BDTC)再度来袭!豪华主席阵容及百位技术专家齐聚,15 场精选专题技术和行业论坛,超强干货+技术剖析+行业实践立体解读,深入解析热门技术在行业中的实践落地。

即日起, 限量 5 折票 开售,数量有限,扫码购买,先到先得!

640?wx_fmt=png

推荐阅读

640?wx_fmt=png

你点的每个“在看”,我都认真当成了AI

已标记关键词 清除标记
相关推荐
©️2020 CSDN 皮肤主题: 大白 设计师:CSDN官方博客 返回首页