MATLAB环境下5种深度学习可解释性方法:LIME等方法

近年来,深度学习模型在医疗健康、图像处理、机器翻译、自动驾驶领域应用广泛,并取得了卓越的性能。然而,深度神经网络是一个具有高度非线性的复杂结构,本质上可以将其视为一个“黑箱”模型。显然,这种不透明建模技术在许多领域无法得到信任,严重限制了深度学习模型在许多敏感或高风险领域的使用。

例如,在医学领域,使用深度学习模型的目的是构建应用程序,帮助医生做出医疗决策。但是,深度学习模型中有数百万个参数,用户给模型一个输入,只是返回一个决策结果,并不知道模型内部具体的决策机制,可解释性较差,导致医学专家不信任模型的决策结果。

在自动驾驶领域,深度学习模型的决策结果直接关乎人的生命安全。出于对安全的考虑,人们需要了解深度学习模型做出某个特定决策的原因,获得用户的信任。因此,深度学习模型可解释性亟待提高,研究深度学习模型的决策结果如何被人类理解以及如何使深度学习模型尽可能透明变得迫在眉睫。大的框架如下:

本项目运行环境为MATLAB R2021b,低于此版本无法运行成功。

大佬说了,最简单可以将可解释性分为两类,第一类是全局性解释,第二类是局域性解释。

全局性解释 试图可视化神经网络每个神经元学到了什么。

局域性解释 只关注输入空间中在这个图片周围的很小区域。

以Local Interpretable Model-Agnostic Explanations(LIME)算法为例,进行可视化。

 

 

代码见评论区 。

 

 

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值