读论文

《Visualizing and Understanding Convolutional Networks》

一,本文主旨

揭示Large Convolutional Network效果好的原因,以及在现有基础上如何进一步提升

两个贡献点

1)采用反卷积实现Convolutional Network的可视化

2)遮挡输入图像部分,进行一个灵敏度的分析,揭示对分类起作用的部分

二,结构

1)反卷积的过程


2)正向训练过程,用的ALEXNET结构,

详细了参数配置,指出各层特征表达的侧重点

反向时,底层可视化实现快

另外输入图片的变化对高层特征影响较小

通过可视化过程,对ALEXNET进行参数优化:we (i) reduced the 1st layer lter size from 11x11 to 7x7 and (ii) made the stride of the convolution 2, rather than 4.

3) Occlusion Sensitivity

This shows that the visualization genuinely corresponds to the image structure that stimulates that feature map,

4)Correspondence Analysis

通过遮住一幅图像的不同部分,实现可视化,研究二者的相关性

an intriguing possibility is that deep models might be implicitly computing them

三,实验

1)改变:(7*7 lters in layer 1 and stride 2 convolutions in layers 1& 2


2)结构深度对结果的影响,深度很重要

3)分别在数据集Caltech-101,Caltech-256,PASCAL 2012,用我们的结构进行实验都取得很好结果

4)Feature Analysis


四,总结

反卷积,遮挡,参数改变,网络深度影响,各层特征对结果影响,结构的可移植性


提炼:参数改变,分类器SVM,扩大样本集crop




评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值