浅谈可解释机器学习

本文深入探讨了可解释机器学习的重要性,解释了可解释性的概念,并对比了人类学习与机器学习的解释性。文章还介绍了可解释技术的发展,包括模型自解释和模型无关解释的关键技术,并展望了可解释机器学习的未来。通过对模型的解释,我们可以增强对AI决策的信任,推动AI在更多领域的应用。
摘要由CSDN通过智能技术生成

目录

为什么需要可解释性

怎么理解可解释性

可解释人类学习与可解释机器学习对比

可解释技术发展

关键技术介绍

    模型自解释

    模型无关解释

可解释未来展望


为什么需要可解释性

        数字化、智能化是大势所趋。用AI武装自己、科学决策是各行各业发展的必然趋势。随着大数据技术的不断革新,数据存储和数据维度的爆炸式增长,用数据驱动智能决策已然成为可能。当前智能决策的落地进程似乎还很缓慢,其中有一个关键性因素是我们对决策结果的不信任和对决策过程的不理解阻碍了我们对AI的落地应用。试想,当你面对一个无法理解的决策结果时,你敢用吗?

       因此,解释AI为什么会做出这些决策或预测就显得尤为重要。用人类可以理解的、自然的方式告诉人们AI为什么这样决策,当我们可以理解AI的决策时,我们就不会再害怕未知,因为一切未知的智能都将在人类可理解的范围内变得可知,这对人类来说,会增加一种天然的安全感。

       拿金融行业信贷风控模型为例,如果信贷风控模型不可解释,这意味着风险决策的不透明,而风险决策直接关系到银行命脉和国家系统性金融风险,将金融根本交到一个不可理解的黑盒模型,这本身就是最大的风险,一旦模型有什么决策漏洞,有什么潜在安全问题,有什么不合理决策条件等等,这些都将造成毁灭性后果。所以,我们必须理解风控模型,必须能解释风险决策,一旦我们理解了,我们才能真正的信任它和掌控它。

怎么理解可解释性

       在我们的日常生活中,我们经常听到“你需要给我一个解释“,那什么是解释呢?我认为要满足两点:

    1.      能合理的说明事物变化的原因、事物之间的联系和事物发展的规律。

    2.      能用对方可理解的方式表达出来。

说的通透一点,可解释就是人们可以理解和认同决策原因。

       那对机器学习而言,可解释意味着人们可以一致地预测模型结果的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决策或预测。如果一个模型的决策比另一个模型的决策更容易让人理解,那么它就比另一个模型有更高的可解释性。

       

可解释人类学习与可解释机器学习对比

       人类的好奇心和学习能力使得我们不断对周围的环境构建心理模型,当发生意外时,我们会通过为意外事件找到解释来更新这个模型,那么在下次遇到同样的问题或者类似情景时,我们就能从容面对和解决。另外,人类通过解释事物变化的规律来不断沉淀知识,这些知识能够对人类的决策起到非常重要的作用,并且对自己的判断充满信心。可见,可解释对人类不断更新自己、预判未来至关重要。

       机器学习使得机器可以通过不断对历史数据进行算法训练来构建决策模型,我们会通过各种度量指标去理解这个模型,当我们理解了这个模型,那么当有新数据输入时,我们就会通过这个模型进行结果预测,因为我们理解了决策原因,我们会非常信任决策结果,并且能预知模型决策的一致性和鲁棒性。机器学习中算法的选择非常重要,首先我们需要明白算法的学习原理,这样,我们才能理解学习模型的有效性。其次,模型学习好后,我们还需要理解模型的参数、变量及它们之间的关系,这样,我们才能真正理解模型决策的底层逻辑。

       总之,不管是可解释人类学习,还是可解释机器学习,本质上都是理解模型的底层逻辑,理解的程度决定了可解释性的程度。

可解释技术发展

       随着算法的不断出新,可解释性技术也在蓬勃发展。整体上是从白盒模型可解释技术到黑盒模型可解释技术演进。这归因于算法越来越复杂,人类已经很难直接理解算法的底层执行逻辑。

       早期,大量的机器学习应用都属于白盒模型,它们有如下特点,首先学习算法非常简单,比如回归模型,这是一个加权和模型,我们很容易理解每个特征对最终结果的效应。再比如树模型,决策过程非常透明,我们很容易根据特征参与决策的次数和覆盖的样本数去理解特征对最终结果的效应,对单个实例的决策,我们也能清晰的输出决策路径,一目了然。其次特征工程非常简单,特征变换和衍生本身容易被理解,大量的特征变换、衍生本身是基于业务理解驱动的。最后,特征本身有含义,大量的特征挖掘都是基于事实数据的简单提取,或者基于业务理解的规则挖掘,入模特征可自解释。因此针对白盒模型,一系列围绕特征自解释、特征工程自解释、算法自解释的技术在高速发展。

       随着算力和数据的指数级增长,越来越复杂的模型被应用到生产阶段,特别是深度学习技术的发展。此时的最终模型人类理解起来已经捉襟见肘了,百万量级的特征,十万量级的参数,复杂的多层连接,模型的复杂度已经远远超越了人类可理解的范畴。此时技术上已经从直接模型相关的白盒解释开始逐步向模型无关的黑盒解释演变。我们不在追求理解原始模型的内部结构,我们开始把模型完全看成黑盒子,从外部视角去观察模型的自变量和因变量的变化规律,或者寻找可替代的解释性优秀的白盒模型去模拟黑盒效果,从而达到可解释和理解的目的。在这个阶段,围绕特征依赖、特征交互、特征置换、模型代理、收益分配等可解释性技术蓬勃发展。

关键技术介绍

模型自解释

       这类模型的算法结构和底层逻辑本身可以很好的解释自己。

线性模型自解释

线性回归模型具有很好的可解释性,它将目标预测为特征输入的加权和,线性关系使得解释变得容易,我们能够很容易描述单个特征的单位变化对整体预测结果的变化幅度,模型的可加性将单个特征的解释与所有其它特征隔离开来,使得特征解释更加独立。

线性回归还有各种可视化效果使得模型更容易理解,比如对各特征权重的可视化,如下图所示:

图片

上图中,权重显示为点,置信区间显示为线࿰

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

陈浩_浩哥

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值