可解释性分析
文章平均质量分 73
南京比高IT
这个作者很懒,什么都没留下…
展开
-
可解释机器学习--总结
商务智能的英文是Business Intelligence,缩写是BI,相比于数据仓库、数据挖掘,它是一个更大的概念。商务智能可以说是基于数据仓库,经过了数据挖掘后,得到的商业价值的过程。所以说数据仓库是个金矿,数据挖掘是炼金术,而商业报告则是黄金。数据仓库的英文是Data Warehouse,缩写是DW。它是BI这个房子的地基,搭建好这个地基之后,才可以进行分析使用,产生价值。原创 2022-12-26 10:37:46 · 196 阅读 · 0 评论 -
Lime算法总结--可解释性机器学习算法总结
Lime算法是基于局部代理模型来对单个样本进行解释。假设对于需要解释的黑盒模型,取关注的实例样本,在其附近进行扰动生成新的样本点,并得到黑盒模型的预测值,基于新的数据集训练可解释的模型来得到对黑盒模型良好的局部相似。算法优点:(1)LIME可以应用到多个场景中,不仅仅可以对卷积神经网络中的图像分类,而且还可以应用到自然语言处理(NLP)当中。而LIME算法它与模型无关,他的可用性强(2)LIME算法可以给出一个相关的可信度量,可以作为模型可靠的评估指标。原创 2022-12-23 18:42:29 · 924 阅读 · 0 评论 -
可解释机器学习之代码实战
观察上述部分结果,可以发现可解释性分析是十分有趣的,我个人认为可解释性机器学习未来是具有可扩展性和实用性极强的,因为它在向我们在解释算法的实质是在做什么。本次实验中,本文主要使用了ImageNet和RESENET18进行图像识别,以及使用了pytorch中的grad_cam\torchcam等工具包,和captum进行图像的遮挡测试,本次实验过程十分有趣,未来我也将会将可解释机器学习应用在自己的研究领域中,并开源相关的个人见解和工具。原创 2022-12-21 17:58:38 · 169 阅读 · 0 评论 -
Grad-CAM--可解释机器学习算法
Grad-CAM基于流入CNN的最后一个卷积层的梯度信息为每个神经元分配重要值,以便于进行特定的关注决策。下图为Grad-CAM在小狗图像上的效果图,可以发现,他不仅做了常规的可解释性可视化,而且进行了基于遮挡的可解释性可视化,可见Grad-CAM的模型表现效果是不错的如下图,Grad-CAM不仅可以用于图像分类,同时还可以进行图像信息的解释性说明,以及可视化问题答案,也就是说,他不仅可以用于图像分类任务,还可以用于强化学习、自然语言处理、图像信息提取等众多的领域。原创 2022-12-19 21:44:48 · 330 阅读 · 1 评论 -
可解释学习第三周--CAM算法的可解释性
CAM热力图可视化方法是一种常用于探索卷积神经网络的技术,通过CAM热力图可视化技术我们可以对深度学习进行可解释探索,前面我们提到了深度学习网络是一个黑箱子,我们如果需要应用和改进的话,需要学习他的原理和探索他的缺陷,从而完成相关的idea。原创 2022-12-17 22:51:43 · 1019 阅读 · 0 评论 -
可解释分析day02-ZFNet深度学习图像分类算法
纽约大学2013年提出了ZFNet,它是在数据集ImageNet上图像分类的冠军。基于AlexNet,他不仅仅只做了改进,而且提出来了一系列可视化卷积神经网络中间层特征的方法,基于可行性的分析分析了卷积神经网络各层提取的特征以及对缩放、数据变化等的敏感性分析。可行性的分析目前虽然没有统一的概念,但其实他的应用很广,小到计算机的程序设计,大到工业应用和学术发展的应用,知其然还要知其所有然,我们做每一个技术或者学术的突破都要先了解他的发展和理论,而可行性分析就是我们可以利用的一个工具。原创 2022-12-15 18:40:56 · 115 阅读 · 0 评论 -
可解释机器学习导论
学习完导论之后,结合我自己目前在做的方向觉得非常不错我在这里给出自己的拙见对于可解释性分析。通过学习可解释性分析,你会增加自己的学习兴趣,不仅知其然还要知其所有然,无论未来你从事科研还是工作,可解释性的分析都会在你的工作的,因为无论是产品还是论文,都需要一个可解释性。目前,AI应用于大多数领域,产生了 可信式Ai.可解性分析可以帮助我们知其然,也知其所有然。折对于未来我们我们做哪一个领域都具有很大的帮助。可以帮助AI更加的贴近生活,落地生活,增强它的可信度。原创 2022-12-13 19:46:31 · 186 阅读 · 0 评论