论文笔记:Analyzing Classifiers: Fisher Vectors and Deep Neural Networks

本文分析了Fisher Vectors (FV) 和 Deep Neural Networks (DNNs) 的分类器,利用Layer-wise Relevance Propagation (LRP) 对两者进行比较,关注分类内容的重要性、图像关键区域的比较以及数据潜在问题。研究发现FV侧重纹理,而DNN更依赖形状。该研究在PASCAL VOC 2007和ILSVRC 2012数据集上进行。
摘要由CSDN通过智能技术生成

Analyzing Classifiers: Fisher Vectors and Deep Neural Networks(CVPR 2016)


CVPR上的文章,不读一读,你会后悔的。
原文链接:Analyzing Classifiers: Fisher Vectors and Deep Neural Networks

每次读论文都会犯困,除非,我真的看懂了-_-. 所以边做笔记边读,成了读论文的一个好方法。(因为写的时候可以转移注意力啊!!!) 不想简单翻译论文,读的过程中难免有不懂的地方,毕竟小白,有问题请指正。

摘要

利用LRP(Layer-wise Relevance Propagation)构架对FV(Fisher vector)和DNNs(Deep Neural Networks)进行对比。主要进行了3个方面的比较:1)评估分类内容的重要性;2)在重要的图像区域方面进行FV和DNNs的比较;3)检测数据潜在的裂缝(原文flaws)和偏见(原文biases)。 这篇文章利用PASCAL VOC 2007和 ILSVRC 2012数据集。

贡献

  1. On pixel-wise explanations for non-
    linear classifier decisions by layer-wise relevance propaga-
    tion
    方法用到FV上,第一次使用相关的传播用到FV上;
  2. 对于单一测试图片用于预测的大量内容进行相关处理;
  3. 作者使用PASCAL数据集是因为他有bounding box可以作为ground truth;
  4. 作者的方法能够识别内容和偏离,即使不适用bounding box信息。

原始Fisher Vector

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值