深度学习【51】物体检测:PVANET: Deep but Lightweight Neural Networks for Real-time Object Detection

这篇论文在coco数据集中取得了第二名的成绩。其目标是在取得state-of-the-art的正确率情况下,最小化计算量。主要工作是优化前面的特征抽取网络,设计原则是通道数要少,但是网络更深。该论文的网络设计主要点为:1、concatencated ReLU;2、inception模块;3、HyperNet,加入不同尺度特征图融合。

C.ReLU

C.ReLU的结构如下:
这里写图片描述
其前向传播过程为:输入数据经过卷积后,经过Negation(卷积的输出取负),然后Negatin的输出和卷积的输出合并起来,也就是Concatenation步骤。接着合并的输出经过Scale/Shift(可训练的参数,对应于每个通道,跟BN层中的scale/shift一样),最后经过ReLU激活函数。

C.ReLU的设计是受启发于CNN的内部节点的激活模式。在CNN的前面几层,每一层的输出节点趋于”paired”,具体的,某一节点是另一节点的反面(作者的观察。。)。因此才有了卷积层的输出取负,然后拼接起来。另外,由于将原本的卷积层的通道数减半,这使得C.ReLU速度更快。

Inception模块

由于多尺度卷积核的原因,Inception模块能够同时捕捉到小物体和大物体的特征。论文中使用的inception模块:
这里写图片描述

HyperNet

受HyperNet的启发,论文使用了多尺度特征融合。直接看网络图会比较清晰一点:
这里写图片描述
具体的,先将conv3_4用最大池化进行下采样,然后将conv5_4用反卷积网络进行上采样,最后将下采样的conv3_4,conv4_4和上采样的conv5_4按通道拼接起来。

在上面的网络中K*K C.ReLU,由1*1卷积-K*K C.ReLU-1*1卷积构成,除了第一次的7*7 C.ReLU没有1*1卷积,其他的都有。对于Residual连接,每个连接处中,来自上一层的输入都会经过一个1*1卷积进行下采样,然后进行连接。连接处有:pool1_1与conv2_1,conv2_3与conv3_1,conv3_4与conv4_1,conv4_4与conv5_1。总结起来就是,在特征图大小改变的地方,都会进行跳跃连接。

另外,网络在ReLU激活函数前,都添加了Batch Normalization。

实验结果

速度快了很多,并且mAP也还不错。
这里写图片描述

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值