9/7(CVPR18)Towards Faster Training of Global Covariance Pooling Networks by Iterative Matrix Square

不断学习得到一个表达能力强的feature,表示图像时候做了个全局pooling,相当于取了一个均值,从统计的意义上说均值只是一阶的信息。

深度分类网络主要分为两个部分:特征提取和分类器。无论是VGG还是GoogleNet,后来的Resnet、Densenet,仔细观察可以发现,无论设计了多么性能优异的网络,在连接分类器之前,一般都连接了一个Pooling层,如下表所示:

无论是Average Pooling也好,还是Max Pooling也好,终究使用的是关于feature的一阶信息。一阶信息往往简单,快速、有效,但并不是所有时候。举个简单例子:学校跳绳队从小张、小明两人中拍一个人去参加比赛,测验10次,很巧合地是二人的平均成绩相同,那么怎么选择呢?于是我们考虑了方差,选择方差小的队员去参加比赛。回过头来思考分类问题,尤其是细分类问题,我们是不是也可以理解为由于细分类问题中类间差异不显著,一阶信息有一些不适用了呢?那么二阶信息是否可以带给分类器更有区分性、更有价值的信息呢?

(MPN-Cov)Is Second-order Information Helpful for Large-scale Visual Recognition?

 

 

 

 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值