人工智能(XAI)可解释的综述!

1 介绍

本研究从数据挖掘的角度系统性回顾了可解释人工智能(XAI)的作用,主要涉及三个主题领域:解释模型行为、评估数据影响和提炼可操作洞察。解释模型行为关注揭示深度神经网络的决策过程,增加人工智能系统的透明度和信任度;评估数据影响则关注个体数据样本如何影响模型决策和泛化性能,检测可能导致结果偏斜的数据异常;提炼可操作洞察旨在发现与社群价值观相一致并促进科学创新的新洞察,将XAI技术应用于实际应用中。本研究对上述三个目的进行了XAI方法的深入分析,突出了当前的能力、实际用途和需要改进的领域,为将XAI更深入地融入数据挖掘实践中,营造一个更透明、更负责任和以用户为中心的人工智能环境奠定了基础。

图1 可解释性AI作为一种用于解释、影响和洞察的数据挖掘方法概述

表1 DNN行为描述符的一些示例、其数据来源和潜在用途

图2 从数据挖掘视角对可解释人工智能(XAI)研究的分类:深度模型解释、训练样本的影响和领域知识的洞察。

2 解释:深度模型的特征属性与推理过程

深度模型解释涉及使用特征归因来评估每个输入对模型输出产生的影响,并检查推理过程以理解模型内的决策路径。

2.1 特征属性作为模型解释的特征重要性评估

特征属性作为模型解释的特征重要性评估的方法包括基于扰动的算法、基于分区的算法、激活/基于注意力的方法以及代理可解释模型。其中,基于分区的算法通过特征归因实现,计算模型输出相对于输入的梯度,表示其对模型预测的敏感性;激活/基于注意力的方法通过注意力机制提高模型的解释性,突出预测的相关区域,展示影响模型结果的重要图像区域;代理可解释模型使用简单的代理来模拟复杂深度神经网络模型的决策边界,包括全局代理和局部代理。

图3 视觉和NLP模型中常用的特征归因方法的可视化:(a)-(d)微调为鸟类分类的ViT-base模型和其衍生模型;(e)在IMDb电影评论上微调的BERT模型。

图4 全球解释性和局部解释性代理模型的示例,包括全球和局部的全球代理模型和局部代理模型。

2.2 推理过程作为模型解释

为了理解模型内部决策过程,有以下几种方法:

可视化中间表示:通过可视化深度学习模型中的中间特征,可以揭示模型如何处理信息。网络切片评估深度视觉表示的可解释性,反卷积网络及相关方法通过重建特征映射到像素空间来解释层。

可视化推理逻辑:决策树及其集成模型可以揭示深度神经网络的决策逻辑,通过将复杂推理转化为一系列简单、逻辑决策,并利用特征属性将神经网络转化为可理解的规则或路径。

作为决策规则的反事实例子:通过确定模型预测所需的输入数据的最小变化量,提供对模型决策边界的明确洞察。这种方法将因果推断观点纳入反事实推理,探究模型预测的因果机制,并揭示模型的弱点。

原型作为决策规则:从训练数据中挖掘原型是一种方法,用于提炼和解释深度学习模型的决策。原型可以提供分类预测的视觉解释,增强模型的解释性。

概念激活向量和衍生概念:概念激活向量(CAVs)在神经网络中提供可解释的维度,代表抽象的“概念”。TCAV是一种定量方法,用于评估特定概念对模型预测的影响。最近的发展引入了可逆CAVs和Text2Concept扩展了CAV框架到NLP领域。此外,概念激活区域(CARs)使用一组CAV来定义DNN模型中的决策边界。

图5 使用基于树/森林的代理进行特征重要性和推理逻辑的可视化展示

2.3 总结与讨论

总之,XAI技术可以从特征归属或推理过程角度解释模型决策。本节将这些方法的流程映射到数据挖掘领域,并简要讨论。

在深度神经网络解释中,数据获取与收集是关键,包括表格、文本和图像数据。数据准备和转换方法对解释深度神经网络至关重要,如LIME和G-LIME生成数据扰动,特征剥夺将输入特征设置为预定基线,SHAP遍历所有组合特征子集。数据建模和分析方法不同,LIME和G-LIME针对扰动数据进行可解释模型的拟合,主要用于局部特征重要性推断。决策树和相关的非线性基于规则的模型提供了全面的全局解释。特征剥夺评估特征省略的影响,SHAP使用博弈论方法,量化每个特征的边际贡献。集成梯度计算特征影响的路径积分以进行澄清。SmoothGrad对多个噪声输入梯度进行平均以获得稳定解释。反事实或概念激活等方法使用梯度探索来揭示DNN决策边界。深度泰勒分解追溯神经元输出到输入信号以确定特征相关性,促进模型解释的深入分析。

3 影响因素:训练样本的数据估值与异常检测

3.1 样本估值作为模型解释

样本贡献型方法是一种独特的可解释性技术,通过确定单个训练示例对模型决策的影响来解释深度模型。这些方法包括基于梯度的估值方法、基于重采样的估值方法和估值中的游戏理论方法。基于梯度的估值方法使用影响函数来衡量模型对训练数据边缘变化预测的敏感性,但计算代价高。基于重采样的估值方法如LOO和Jackknife重采样评估单个数据点对预测模型的贡献,但处理大规模数据集时计算效率较低。估值中的游戏理论方法如夏普利值、贝塔夏普利值和巴尔赞夫值提供了一种稳健的框架,用于估计单个训练样本对模型预测的贡献。

图6 评估训练样本的影响:留一法(LOO)重抽样与影响函数

3.2 样本异常作为模型解释

硬样本挖掘、标签错误检测和数据集调试是机器学习中的重要策略,用于解决数据集中的各种问题,以提高模型的性能。硬样本挖掘通过调整样本权重来增强模型的学习过程,标签错误检测关注误标样本对模型训练过程的影响,数据集调试则重点解决缺失值、异常值和噪声数据等问题。这些策略在计算机视觉、主动学习、图学习和信息检索等领域发挥着作用,展示了机器学习在丰富数据科学领域学习范式方面的广泛性和适用性。

图7 在CIFAR-10的训练过程中,经历过遗忘事件的样本和从未忘记的样本

3.3 总结和讨论

XAI技术能够量化训练样本对模型决策的影响,适用于各种数据类型,如表格、文本和图像。在数据估值和异常检测领域,XAI方法提供了全面的框架,如影响函数、TracIn、Leave-One-Out(LOO)、Jackknife和Shapley估值等。在数据准备和转换阶段,各种异常解释器应用预处理技术准备数据,如Smirnov等人生成图像辅助嵌入,O2u-Net使用振荡训练方法捕获训练损失,Jia等人打乱标签并跟踪迭代训练损失,TAPUDD从深度神经网络模型中提取热图,PaLM使用决策树节点划分数据集。在数据建模与分析中,XAI被用于揭示训练数据对预测模型的影响。在结果报告与可视化方面,XAI工具的结果报告和可视化方式多种多样,如影响函数计算单个训练样本的影响,TracIn量化正负训练影响,LOO技术通过显示预测偏移来显示影响,Jackknife和Shapley估值分配表示影响大小的数值。

图8 通过提供独特的见解和工具来确保机器学习管道中的数据完整性,用于训练动态和误标记样本检测

4 洞察:从数据中提取模式和知识发现

XAI算法能够提取易读的见解,主要得益于识别和解释复杂多维或多模式数据中的模式、相关性和异常。目前已有两组努力,一组关注社会价值观,另一组则聚焦于科学发现的进步。

4.1 社会价值观作为模型解释

在社会价值观方面,XAI旨在提高算法和模型对决策的可解释性和可信度,从而促进社会选择,最终提高社会公平性、道德性、问责制和透明度。XAI对于改善机器学习模型的偏见至关重要,可以通过Counterfactual Fairness方法证明自动化决策的公平性,并提供透明度以阐明深度神经网络的逻辑,为公平人工智能应用奠定基础。在数字伦理方面,XAI中的反事实推理研究警示了误用社会分类的风险,并强调在公平和透明度原则下谨慎发展。在系统问责制方面,人工智能的问责制对于确保公平、合法和与社会一致的决策至关重要。在决策透明性方面,XAI在各个领域都取得了进步,满足了人工智能系统对透明度和信任的需求。

4.2 作为模型解释的科学探索

XAI为科学研究提供了实用技术和工具,其潜力巨大。根据利用XAI技术的不同方法,这些作品被分为三组:模式识别、跨学科合作和揭示机制。在模式识别中,XAI通过干预措施阐明AI决策过程,提高深度学习在药物发现等领域的效用。在跨学科合作中,XAI为多个领域的协同作用铺平了道路,导致跨学科的突破。在揭示机制中,XAI在破解自然系统复杂性和增强科学调查深度精度方面起着关键作用。XAI使AI模型简单易懂,帮助科学家验证或反驳假设,催生新见解。XAI是跨学科研究的理想途径,对科学探索的未来至关重要。

4.3 总结与讨论

XAI整合了数据收集与获取、数据准备与转换、数据建模与分析、结果报告和可视化四个步骤,用于推动社会价值和科学发现。在数据收集与获取阶段,XAI使用复杂的多维度和多模式数据集,涉及社会应用的数据类型包括人口统计、财务、医学成像、行为和教育数据集,以及科学发现的数据类型从基因组序列到量子系统属性,再到药物发现的分子结构以及医疗保健应用的临床成像数据。在数据准备与转换阶段,XAI进行数据预处理,包括社会背景下的标准化以减轻偏见、确保公平和透明度,以及转换不一致或缺失的财务数据以适应动态环境。在数据建模与分析阶段,XAI通过与目标任务相一致的技术进行建模与分析,如Counterfactual Fairness方法和深度神经网络透明技术,以实现社会公平和系统问责制。在科学发现方面,XAI通过分类识别和图神经网络进行概念漂白,以预测药物疗效,同时利用限制性玻尔兹曼机揭示量子纠缠。在结果报告和可视化阶段,XAI结果的报告和可视化因其应用领域而异,增强了模型决策过程的清晰度和可解释性。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值