![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
可解释性
文章平均质量分 93
今我来思雨霏霏_JYF
这个作者很懒,什么都没留下…
展开
-
Analysis of Explainers of Black Box Deep Neural Networks for Computer Vision: A Survey(2021)
深度学习是一种对大量或复杂数据进行推理的最先进技术。作为一种黑盒模型,由于其多层非线性结构,深度神经网络经常被批评为不透明且其预测无法被人类追踪。此外,这些模型从人工生成的数据集中学习,而这些数据集往往不能反映现实。基于深度神经网络的决策算法,可能会由于缺乏透明度而在不知不觉中促进偏见和不公平。因此,已经开发了几种所谓的解释器。解释器试图通过分析输入和输出之间的联系来深入了解机器学习黑匣子的内部结构。在本综述中,我们介绍了用于计算机视觉任务的深度神经网络解释系统的机制和特性。原创 2023-11-11 22:11:35 · 96 阅读 · 0 评论 -
A Survey on Neural Network Interpretability(2021 Trans)
随着深度神经网络的巨大成功,人们也越来越担心它们的黑盒性质。可解释性问题影响了人们对深度学习系统的信任。它还与许多伦理问题有关,例如算法歧视。此外,可解释性是深度网络成为其他研究领域强大工具的理想属性,例如,药物发现和基因组学。在本次调查中,我们对神经网络可解释性研究进行了全面回顾。我们首先澄清可解释性的定义,因为它已在许多不同的上下文中使用。然后,我们阐述了可解释性的重要性,并提出了一个新的分类方法,沿着三个维度组织:参与的类型(被动和主动解释方法),解释的类型,以及重点(从局部到全局的可解释性)。原创 2023-11-09 22:17:22 · 479 阅读 · 0 评论