Fully Motion-Aware Network for Video Object Detection

来自清华的一篇文章,发表在ECCV2018上,是对FGFA做的改进。

  针对R-FCN这一目标检测算法做出的专有改进,目前看来这个方法只适合用在R-FCN,无法迁移到其他目标检测算法,如faster rcnn、SSD等。

具体的做法是这样的,FGFA就是图中左半部分,分别提取相邻帧的图片特征,并用光流做对齐,这篇文章有意思的点在于他对多帧特征进行的是求和去平均值,

没用加权平均,作者称直接取平均得到的结果和加权平均相差不大,还能减少计算量。作者称左边这一步为像素级的对齐。右边是作者提出的实例级的对齐,将每一张图片的

特征送入检测网络,得到多个proposal的位置敏感图,再利用光流对得到的位置敏感图进行对齐,将对齐后的结果取平均做一个增强,达到了还不错的效果。

在VID上达到了78.1的mAP,但文章里没有提速度,感觉比FGFA会慢一些。

 

转载于:https://www.cnblogs.com/hf19950918/p/10588746.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值