自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 【论文阅读】AI for Explaining Decisions in Multi-Agent Environments

在多智能体环境中提供可解释的决策。本文认为在多智能体环境中,提供解释更为重要,以增加用户的满意度,考虑公平性、嫉妒和隐私等属性。

2023-09-17 18:09:47 92 1

原创 【论文阅读】Towards Automated Concept-based Decision Tree Explanations for CNNs

提出了Automated Concept-based Decision Tree Explanations (ACDTE)方法,提供人类可理解+基于概念的解释。我们的框架为用户提供了定制解释的灵活性,允许用户提供数据集,我们的框架自动提取可视化的人类可理解的概念。然后,通过一个浅决策树来解释这些概念,其中包括在预测特定实例的决策时被认为对模型重要的概念。此外,ACDTE生成反事实解释,建议实例基于概念的解释中的最小变化导致不同的预测。

2023-02-22 16:23:01 158

原创 【论文阅读】Posthoc concept bottleneck models

提出PCBM,可以把任何预训练模型转化为CBM。训练数据没有概念标注的时候,可以用其它数据集的概念标注和概念的自然语言描述。提出残差建模步骤,在概念不够的时候恢复原模型的性能。提出通过干预全局地改变模型的性能。

2023-02-21 13:25:21 275 1

原创 【论文阅读】Concept whitening for interpretable image recognition

用Concept Whitening层(归一化,去相关)替换训练好的模型的Batch Normalization层。将潜空间与概念对齐。

2023-02-21 12:26:59 395 1

原创 【论文阅读】Concept Bottleneck Models

Concept Bottleneck Models(CBM):模型的瓶颈(拥有最少神经元的那一层)的每个神经元代表人类指定的概念,模型只用这些概念做决策。Concept Bottleneck与传统的特征工程不同:Concept Bottleneck学习从原始输入到高级概念的映射,而特征工程构建可以通过手写函数计算的低级特征。标准模型健壮性比较差,概念模型健壮性比较好:每个概念在多个鸟类种类中共享,从而出现在跨越多个背景类型的训练数据点中,降低了概念和背景之间的相关性。概念的准确性还是干预的有效性更重要?

2023-02-21 11:52:57 857 1

原创 【论文阅读】A Framework for Learning Ante-hoc Explainable Models via Concepts

通过提取概念实现解释

2023-02-15 14:17:09 106 1

原创 【论文阅读】 A comprehensive taxonomy for explainable artificial intelligence: a systematic survey of surv

(1)完整的XAI方法分类(2)广泛的XAI方法元研究(3)广泛的XAI方法综述

2023-02-10 14:07:01 120 1

原创 【论文阅读】心理健康领域的可解释人工智能,通过透明和可解释实现可理解

考虑到人工智能和机器学习中术语“可解释性”的不同用法和预期含义,我们建议通过将可理解性定义为透明度和可解释性的函数来近似模型/算法的可解释性。这些概念更容易表达,更容易“扎根”我们对算法和模型如何运作的理解,并且在文献中使用得更一致。

2023-02-06 17:00:28 385 1

翻译 【教程】在Steam Deck上安装系统引导软件rEFInd

折腾steam deck双系统折腾得痛苦不堪,陆续经历了bios打不开steamOS卡在加载画面,长按电源+音量(+/-)连bios都打不开直接进windows两个阶段,就在准备写安装盘重装的时候,这个东西救了我狗命!!!

2023-02-03 15:35:35 6608

原创 【读论文】A Survey on Neural Network Interpretability

1. 可解释性的定义2. 可解释性的重要性3. 新的分类法:三个维度进行分类:参与方式(主动/被动),解释类型,范围(局部/全局)

2022-08-09 12:12:28 610

原创 NTL库在Win上基于MinGW的安装

NTL库是C++数论库。https://libntl.org/一、安装MinGW下载MinGW安装器MinGW-get-setup根据需求选择安装的包(一定要装msys和gmp)二、安装NTL因为我们在win上安装了unix-like平台MinGW,所以直接参考官方Unix安装教程下载合适版本的Unix ntl安装包打开刚才安装的msys,进入放置安装包的文件夹,解压gunzip ntl-xxx.tar.gztar xf ntl-xxx.tar切换到src文件夹cd ntl-x

2022-03-14 16:30:34 809

翻译 【论文翻译】Distilling a Neural Network Into a Soft Decision Tree_【-3,5,7】

Frosst N, Hinton G. Distilling a neural network into a soft decisiontree [J] . arXiv preprint arXiv:1711. 09784, 2017 所有权利归原作者,我读论文的时候把不懂的地方翻译出来方便自己阅读。

2022-02-09 18:25:13 669

翻译 【论文翻译】Toward Learning Trustworthily from Data Combining Privacy, Fairness, and Explainability_【4】

Toward Learning Trustworthily from Data Combining Privacy, Fairness, and Explainability 4.4 Making the Model Interpretable。所有权利归原作者,我读论文的时候把不懂的地方翻译出来方便自己阅读。

2022-02-08 13:16:54 186

翻译 【论文翻译】Toward Learning Trustworthily from Data Combining Privacy, Fairness, and Explainability_【4.4】

Toward Learning Trustworthily from Data Combining Privacy, Fairness, and Explainability 4.4 Making the Model Interpretable。所有权利归原作者,我读论文的时候把不懂的地方翻译出来方便自己阅读。

2022-02-07 16:00:46 163

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除