LIME:为什么我应该相信你?解释任何模型的预测结果

Github 项目链接:https://github.com/marcotcr/lime
参考链接:
LIME - Local Interpretable Model-Agnostic Explanations
LIME:一种解释机器学习模型的方法
LIME:模型预测结果是否值得信任?
论文参考链接:https://arxiv.org/pdf/1602.04938v1.pdf
责编:Adam(投稿请联系pei_adam@qq.com)

概述

机器学习在互联网大公司中已经被广泛应用。在不久的未来,也必将被大部分互联网公司应用。所以,当部署一个最新模型的时候,利用它在实际业务中进行预测的同时,理解它预测的底层缘由,从而评估它预测的可信度是至关重要的。

简介

机器学习在近几年计算机科学进步中起到了决定性的作用,不幸的的是,人,这个重要的角色经常在这个领域被忽视掉了。不管人是否是直接用机器学习分类器作为一个工具,又或者是部署到其它的产品中。一个重要的问题是:如果用户不相信这个模型或预测,用户肯定不会用它。值得注意的是,虽然相信模型和相信预测有一定的关联性,但是它们是两个不同的相信的定义。(1)相信预测,比如:用户会基于相信的预测,而采取一些行动。(2)相信模型,比如:用户是否相信这个模型表现合理。相较于模型对于用户是黑盒的状态而言,两种相信都直接受用户对模型行为了解的程度影响。首先针对于第一种相信预测,LIME为每个单独的预测结果提供了解释。其次,LIME选择了多个预测结果和预测解释来解决相信模型的问题。
LIME, 是一种可以为任何分类器和回归器提供合理解释的算法。其主要实现逻辑是:通过一个可解释性的模型来进行局部拟合这个模型。

案例解释

为了让用户能够有效相信和利用机器学习,LIME提供了一个可视化的HTML格式展示界面给用户,让用户能够对模型预测结果和各大特征之间有一个量化的理解。何谓量化理解?通俗的讲,既然你模型认定它属于某类,那么模型是通过这个案例的哪些特征来认定它属于这个类别的呢?并且,这些特征给模型提供了多大的确信度让模型更加确信的认定它属于这类的呢?举个例子:模型对猫和狗图片的分类问题,模型判定这张图片是猫,模型是如何判定的呢?模型可能是通过观察图片中动物的毛色,动物的眼睛,动物的头型等等这些特征,从而最后判定这张图片是猫不是狗。那么,这些特征分别对模型判定图片为猫的确信度是增加了还是减少了呢。这就是特征贡献值的作用【量化】,当特征贡献值>0的时候,我们就认为它对模型认为这张图片为猫的确信度增加了,至于增加的程度,就是通过特征贡献值来衡量。反之,如果贡献值<0&

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值