【CVPR2017周博磊】Network Dissection: Quantifying Interpretability of Deep Visual Representations

Network Dissection: Quantifying Interpretability of Deep Visual Representations论文地址:https://arxiv.org/pdf/1704.05796.pdf源代码和数据获取地址:http://netdissect.csail.mit.eduAI科技大本营 采访周博磊:https://www.jianshu.com/p/cc9cdb4fd42b摘要我们提出了一种名为“Network Dissection”的通用框架,
摘要由CSDN通过智能技术生成

Network Dissection: Quantifying Interpretability of Deep Visual Representations

论文地址:https://arxiv.org/pdf/1704.05796.pdf
源代码和数据获取地址:http://netdissect.csail.mit.edu
AI科技大本营 采访周博磊:https://www.jianshu.com/p/cc9cdb4fd42b

摘要

我们提出了一种名为“Network Dissection”的通用框架,通过评估单个隐藏单元与一系列语义概念间的对应关系,来量化 CNN 隐藏表征的可解释性。对于任何 CNN 模型,我们提出的这种方法利用大量的视觉概念数据集来评估每个中间卷积层隐藏单元的语义。这些带有语义的单元被赋予了大量的概念标签,这些概念包括物体、组成部分、场景、纹理、材料和颜色等。
我们使用该方法测试了“单元的可解释性等同于单元的随机线性结合”的假设。接下来,在训练多种神经网络解决不同的监督和自监督训练任务时候,我们用此方法将这些神经网络在训练期间的隐藏表征(latent representations)进行了对比。我们进一步分析了训练迭代的影响,对比了用不同初始化训练的网络,探究了网络深度和宽度的影响,并估量了 dropout 和批规范化(batch normalization)对深度视觉表征可解释性的影响。我们证明了该方法可以揭示 CNN 模型和训练方法的特性,而不仅仅是衡量他们的判别能力。


1.Introduction

  • 对大型深度神经网络中隐藏单元的观察表明,人类可解释的概念有时会在这些网络中作为个体潜在变量出现: 例如,物体探测单元出现在训练识别[40]位置的网络中; 部件检测器出现在对象分类器[11]中;目标检测器出现在生成视频网络[32]中(图1)。这种内部结构出现在网络没有被限制以任何可解释的方式分解问题的情况下。
  • 可解释结构的出现表明,深层网络可能会自发地学习解耦的表征。虽然人们普遍认为网络可以学习一种有效的编码方式,这种编码方式可以经济地使用隐藏变量来区分其状态,但人们对解耦表示法的出现并没有很好的理解。解耦表示法将变量与潜在问题结构的有意义的分解对齐,鼓励解耦表示法是[5]研究的重要领域。如果深层网络的内部表示部分解耦,理解其机制的一个可能途径是检测解耦结构,并简单地读出分离的因子。
  • 然而,这一提议提出了我们在本文中讨论的问题:
    •什么是解耦表示,它的要素如何被量化和检测?
    •可解释的隐藏单元是否反映了特征空间的一种特殊排列,或者解释只是一种幻想?
    •在最先进的训练中,什么条件会导致更大或更小的纠缠表象?
    为了研究这些问题,我们提出了一个总体的分析框架,Network Dissection,以解释深层视觉表征和量化其可解释性。使用广泛而密集的标记数据集Broden,我们的框架为任何给定的CNN识别隐藏单元的语义,然后将它们与人类可解释的概念相结合。我们在各种训练过目标和场景识别的CNN (AlexNet, VGG, GoogLeNet, ResNet)上评估了我们的方法,并表明突发可解释性是一种表征的轴对齐属性,它可以被旋转破坏而不影响辨别能力。我们进一步研究了训练数据集、dropout[28]和批处理规范化[13]等训练技术以及不同主要任务的监督如何影响可解释性。

1.1Related Work

  • 越来越多的技术已经开发出来,通过可视化来理解卷积神经网络的内部表示。CNN的行为可以通过最大化激活隐藏单元的采样图像块来可视化[37,40],或者通过使用反向传播的变体来识别或生成显著的图像特征[17,26,37]。CNN特征隐藏层的鉴别能力也可以通过隔离部分网络,传输或限制它们,并在特定问题上测试它们的能力来理解[35,24,2]。可视化将网络的机制分解为必须被解释的图像;这激发了我们的工作,我们的目标是将CNN的表现与直接和自动的标记解释相匹配。
  • 与我们当前工作最相关的是探索神经网络中单个单位的作用。在[40]中,人类评价被用来确定单个单元作为目标探测器在网络中进行训练来分类场景。[20]通过学习特征反转映射,自动生成单个单元的原型图像;这与我们自动分配概念标签的方法相反。最近[3]提出了一种测试中间层的方法,通过训练简单的线性探针,分析层间的信息动态及其对最终预测的影响。
  • 在这里插入图片描述
    图1。40(分类位置)中的单元13检测台灯。11(分类物体)中的单元246检测自行车车轮。32中的一个单元(用于生成视频的自我监督)检测人。

2. Network Dissection

  • 我们如何量化一个想法的清晰度?解开表象的概念是基于人类对概念混淆的理解。因此,当我们量化可解释性时,我们根据与一组人类可解释的概念的一致性来定义它。我们对深度视觉表示的可解释性的测量分三步进行:
  • 1.确定一系列人类标注的视觉概念。
  • 2.收集隐藏变量对已知概念的反应。
  • 3.量化隐藏变量的对齐-概念对。
  • 这个Network Dissection的三步过程让人想起神经科学家用来理解生物神经元中类似表征问题的程序[23]。由于我们的目的是测量一个表示被解开的程度,我们集中于量化一个潜在变量和一个视觉概念之间的对应关系。
  • 在一个完全可解释的局部编码中,比如一个hot-encoding,每个变量将与一个人类可解释的概念完全匹配。尽管我们期望网络在内部层学习部分非局部表示[5],过去的经验表明,一个涌现的概念通常会与几个隐藏单
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
CVPR 2019中发表了一篇题为“迁移学习:无监督领域自适应的对比适应网络(Contrastive Adaptation Network for Unsupervised Domain Adaptation)”的论文。这篇论文主要介绍了一种用于无监督领域自适应的对比适应网络。 迁移学习是指将从一个源领域学到的知识应用到一个目标领域的任务中。在无监督领域自适应中,源领域和目标领域的标签信息是不可用的,因此算法需要通过从源领域到目标领域的无监督样本对齐来实现知识迁移。 该论文提出的对比适应网络(Contrastive Adaptation Network,CAN)的目标是通过优化源领域上的特征表示,使其能够适应目标领域的特征分布。CAN的关键思想是通过对比损失来对源领域和目标领域的特征进行匹配。 具体地说,CAN首先通过一个共享的特征提取器来提取源领域和目标领域的特征表示。然后,通过对比损失函数来测量源领域和目标领域的特征之间的差异。对比损失函数的目标是使源领域和目标领域的特征在特定的度量空间中更加接近。最后,CAN通过最小化对比损失来优化特征提取器,以使源领域的特征能够适应目标领域。 该论文还对CAN进行了实验验证。实验结果表明,与其他无监督领域自适应方法相比,CAN在多个图像分类任务上取得了更好的性能,证明了其有效性和优越性。 综上所述,这篇CVPR 2019论文介绍了一种用于无监督领域自适应的对比适应网络,通过对源领域和目标领域的特征进行对比学习,使得源领域的特征能够适应目标领域。该方法在实验中展现了较好的性能,有望在无监督领域自适应任务中发挥重要作用。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值