![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
interpreted
文章平均质量分 93
2snoopy
这个作者很懒,什么都没留下…
展开
-
可解释性论文汇总
文章目录张拳石组可解释性论文思想汇总1. Interpreting multivariate interactions in DNNs(2021 AAAI)2. Interpreting and Boosting Dropout from a Game-Theoretic View(2021 ICLR)张拳石组可解释性论文思想汇总1. Interpreting multivariate interactions in DNNs(2021 AAAI)解决的问题:衡量特征组合之间的显著性交互来解释DN原创 2021-01-18 21:08:04 · 1530 阅读 · 0 评论 -
最近看过的相关可解释性的论文(持续更新...)
文章目录最近看过的相关可解释性的论文1. TabNet: Atentive Interpretable Tabular Learning最近看过的相关可解释性的论文1. TabNet: Atentive Interpretable Tabular Learning解决的问题基于树的方法能够有很好的解释性,但是需要大量的特征工程,以及精度不够高 基于DNN的方法能够有效编码各种格式数据,无需大量特征工程,且能够准确鲁棒地对数据进行处理,能否设计兼顾两者的DNN想法/创新:提出了一种基于表格的原创 2020-11-30 20:27:49 · 700 阅读 · 0 评论 -
CXPlain: Causal Explanations for Model Interpretation under Uncertainty
CXPlain: Causal Explanations for Model Interpretation under Uncertainty(不确定性下的模型因果解释)思路:将为机器学习模型的决策提供解释的任务作为因果学习任务,并训练因果解释(CXPlain)模型,以便在另一个机器学习模型中估计某些输入导致的输出贡献:引入因果解释(CXPlain)模型,这是一种新的学习方法,用于准确估计任何机器学习模型的特征重要性。提出了一种基于bootstrap重采样的方法来对CXPlain提供的特征重要性分原创 2020-11-04 20:25:07 · 710 阅读 · 1 评论 -
Time2Graph: Revisiting Time Series Modeling with Dynamic Shapelets(使用动态shapelets重新建模时间序列)
Time2Graph: Revisiting Time Series Modeling with Dynamic Shapelets(使用动态shapelets重新建模时间序列)时间序列建模的目的是为了发现按时间排序的数据中的关系。关键问题是如何从一个时间序列中提取关键特征,以前的大部分框架从经典的特性工程和表示学习到基于深度学习的模型。虽然这些方法都取得了很好的效果,但是也因为缺乏可解释性被人诟病。而本文关注的对象shapelet(代表一个类的时间序列子序列)能在分类场景中提供直接的可解释的和解释性的见原创 2020-10-31 16:49:52 · 3102 阅读 · 2 评论 -
Explaining Deep Neural Networks
Explaining Deep Neural Networks翻译一下牛津小姐姐这这篇优秀的博士论文,可以大致当做一篇综述来看,如果有翻译不好的地方,请大家多多指点附上论文地址 https://arxiv.org/pdf/2010.01496.pdf????????????文章目录Explaining Deep Neural Networks????????????摘要第一章 简介1.1 解释深度神经网络的重要性1.2 研究问题及大纲第二章 深度神经网络解释的背景知识2.1 记号2.2 解释性方原创 2020-10-24 11:58:41 · 1307 阅读 · 4 评论 -
HIERARCHICAL INTERPRETATIONS FOR NEURAL NET- WORK PREDICTIONS
文章目录HIERARCHICAL INTERPRETATIONS FOR NEURAL NET-WORK PREDICTIONS(神经网络预测的层次解释)主要概念及贡献具体方法1. 一般DNNs的上下文分解(CD)重要性得分2. agglomerative contextul decomposition (ACD)(凝聚的上下文分解)HIERARCHICAL INTERPRETATIONS FOR NEURAL NET-WORK PREDICTIONS(神经网络预测的层次解释)主要概念及贡献主要思想:原创 2020-10-17 17:41:25 · 499 阅读 · 0 评论 -
可解释的机器学习
文章目录可解释性可解释性的重要性可解释性方法的分类解释的性质人性化的解释可解释性可解释性的定义:可解释性是⼈们能够理解决策原因的程度。另⼀种定义是 :可解释性是指⼈们能够⼀致地预测模型结果的程度。机器学习模型的可解释性越⾼,⼈们就越容易理解为什么做出某些决策或预测。可解释性的重要性如果模型具有可解释性,我们可以更好的检查以下性质:公平性 (Fairness):确保预测是公正的,不会隐式或显式地歧视受保护的群体。可解释的模型可以告诉你为什么它决定某个⼈不应该得到贷款,并且使⼈们更容易判断该决原创 2020-10-14 20:15:09 · 1848 阅读 · 0 评论 -
GRACE: Generating Concise and Informative Contrastive Sampleto Explain Neural Network Model’s Predic
文章目录GRACE: Generating Concise and Informative Contrastive Sampleto Explain Neural Network Model’s Prediction1. Explanation by Intervention(解释干预)2. From Intervention to Generation(从干预到生成)目标函数4. GRACE: GENERATING INTERVENTIVECONTRASTIVE SAMPLES FOR MODEL EXP原创 2020-10-10 20:21:17 · 433 阅读 · 0 评论