机器学习可解释性

本文探讨了机器学习特别是神经网络的可解释性,包括逻辑规则、语义、示例和属性解释。LIME作为一种局部线性解释方法,用于解释黑盒模型在特定输入附近的决策。可解释性在高可靠性、透明性和伦理法规方面具有重要意义,同时帮助发现模型错误并提高信任度。
摘要由CSDN通过智能技术生成

目录

什么是可解释性

为什么需要可解释性

神经网络可解释性的分类

 1. 按照逻辑规则解释(Rule as Explanation)

2. 按照语义进行解释

3. 通过示例进行解释

4. 按照属性解释

LIME相关介绍

可解释性总结


什么是可解释性

        理想情况下,严谨的数学符号-逻辑规则是最好的解释。 但是实际上人们往往不强求“完整的解释”,只需要关键信息和一些先验知识。

        不同领域的模型解释需要建立在不同的领域术语之上,不可能或者目前难以用数学逻辑符号来解释。例如计算机视觉中的image patches,NLP中的单词等。而可理解的术语可以理解为计算机跟我们人类能够沟通的语言。以前我们很多研究关于人类跟计算机表达的语言例如计算机指令,现在是反过来计算机根据现有的模型给我们解释。

        Lipton 的 文章 The Mythos of Model Interpretability 试图说明什么是可解释性,他在文章中问了很多发人深思的问题。比如,我们什么时候需要可解释能力?如果一个模型的精确度很高,百分百正确,我们可能不需要可解释能力。如果一个模型精度不够高,我们就会急切想知道机器为何出错。如果机器出错的地方,也是人类出错的地方,

  • 2
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

allein_STR

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值