Visualizing and Understanding Convolutional Networks

这篇文章的目的主要是想探明CNN的中间层是怎么变化的,为什么CNN的分类、目标检测等功能这么好。

文章中主要是对特征层进行反卷积(根据计算过程,翻译成转置卷积更好),将特征层映射到像素空间中(原文中图2的灰色部分),观察特征图映射之后的变化和特征。原文图2中也将原图的相应部分展示出来。

文中并没有详细说明转置卷积的操作步骤,只说是借鉴了另一篇文章。我从另外一篇介绍看到一个不错的,先贴图如下。

之后还有反池化和激活函数操作。这里着重说一下反池化,因为我当时看文献,一时没有看明白。最大值池化时,记录下最大值的相对位置,文中用switch表示这个意思。反池化的时候,将最大值返回到这个相对位置,其他位置补0.

作者肯定是先对ALEXNET的结构进行可视化,然后发现可视化上特征的一些缺点,然后对网络结构进行改进。改进后,将网络训练至收敛,得到每层特征图的可视化。文章对可视化进行了很细的分析,可是自己感觉记不住,所以我总结下来,就是,高层特征是底层特征的组合,越高层语义信息越高。且越高层,达到收敛所需要的训练轮越高。

另外,文中通过对原始图像的遮挡,观察特征图和概率图的变化。得到物体的结构对结构影响大,而不是周围的环境起主要作用(这里我就很奇怪,无论分类还是什么,肯定是目标起主要作用啊,周围环境肯定起不了决定性的作用。何必多此一举进行试验。)

文章后面还有一些关于迁移学习,网络结构改变的实验,因为表格没有看的太懂,这里就不详细赘述了。我只记得,单独移除全连接层和移除卷积层的中间两层,影响不大。但是同时移除,效果下降很多。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值