论文摘要--Fisher Vectors Meet Neural Networks: A Hybrid Classification Architecture

卷积神经网络(CNN)计算量大,需要的样本多,而FisherVector(FV)准确度与CNN接近,并且与线性分类器有较高的匹配度,因此FV仍然占有重要地位。

本文的创新在于:1.将FV网络与神经网络结合 2.混合体结构派生的中级特征能与CNN媲美。

与传统FV网络相比,一方面,该网络利用了PAC降维度。另一方面,该网络将线性部分与非线性部分区分。线性部分只有一层。非线性部分有两层,第一层可以解释为非线性映射Ψ,第二层可以解释为嵌入空间中的线性分类器。

基于以上思想,该系统设计分为两部分,监督与非监督部分。第一部分是依赖于FV的非监督部分,它将结果送入监督部分。

非监督部分有三层,分别是局部特征提取,FV编码层和降维。局部特征提取使用SIFT和颜色描述符,将FisherKernel框架应用于图像,将高斯混合模式用作局部描述符的生成模型。降维是通过PAC以及白化完成的。

监督部分由一组完全连接的层组成。这些层涉及线性投影,然后是非线性映射。


实验结果

ILSVRC’10中:


1.层数与每层单元数量比较

当每层单元数目固定式,和0层相比,层数增加时,错误率会下降。

层数不变,改变层内单元数目,单元数越多,错误率下降越多。

2.不同的核函数比较

反余弦和RBF核函数得到的结果类似,明显比具有一个隐藏层的NN更差,特别是当随机投影/隐藏单元较少时。

3.Bagging决策树的效果

隐藏层数越多,Bagging决策树的影响就越大

4.数据扩充的效果

数据扩充之后,在4K比特无隐藏层上的错误率从27.2%下降到25.2%。

5.最好的结果

三层隐藏层+8K隐藏单元,错误率为17.6%。

 

ILSVRC’12中:

在ILSVRC’12的结果是以ILSVRC’10为基础的,区别在于,ILSVRC’12有了迁徙特性。它会从倒数第二层取出结果放入分类器中。

接着是实例级检索。本文选用了INRIA Holidays和University of Kentucky Benchmark的图片库。PAC降维之后,并在Bagging决策树的影响下,得到的结果比基本的FV算法优越很多。Holiday的结果为84.7%,相当于UKB的3.64.



如果您觉得本文有任何写的不好的地方,欢迎在下方留言。大笑



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值