One-Shot Video Object Segmentation理解

Caelles S , Maninis K K , Pont-Tuset J , et al. One-Shot Video Object Segmentation[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2017.

一、论文概括

本文主要提出了一个新型的CNN架构OSVOS,用以处理视频物体分割的问题,即对视频中的每一帧图像分成两类:前景(foreground)和背景(background),前景就是需要检测出的物体。OSVOS的全称为One-Shot Video Object Segmentation,即一次视频物体分割。如下图所示,OSVOS只需输入视频的第一帧图像中物体的掩膜(红色位置),就可以识别中该视频接下来的每一帧中物体的掩膜(绿色位置)。

在这里插入图片描述
OSVOS的架构分为三步:(1)基于ImageNet预训练一个基础CNN网络(Base Network),其作用是学习图像的一般性表示。(2)基于DAVIS的训练集和基础网络训练一个父母网络(Parent Network),其作用是学习DAVIS图像的表示,并初步对物体进行分割。(3)基于特定物体视频的第一帧图像,训练一个测试网络(Test Network)对Parent Network的训练结果进行微调,从而使完整的OSVOS可以识别某一个特定的物体。如下图所示。
在这里插入图片描述
从OSVOS的架构,我们可以看出当前深度学习的一个潮流,即先使用一个大型的相关语料库进行预训练,然后再基于特定的数据集进行微调,从而在特定的数据集上达到较好的效果。类似更著名的模型如BERT等。这让博客主不禁思考,这样的神经网络训练模式的确与人类学习的过程有些类似,但神经网络的预训练是否可以达到人类大脑的效果了?不过,人类的学习效果也并非完全良好,有学习成绩好的,也有学习成绩差的。因此神经网络可以达到当今的效果,已实属不易。炼金之路路途遥远,当砥砺前行。

OSVOS的架构主要是基于全卷积实现的,其最大的特点是其相比于全连接网络参数数量要少很多,这就保证了训练的效率。因为将深度学习应用于计算机视觉领域,不单单要考虑其模型性能,模型效率也是一个很重要的考量。

OSVOS架构中,Parent Network按Foreground Branch、Contour Branch和Boundary Snapping分为三步。如下图所示,Foreground Branch和Contour Branch使用完全相同的网络架构,但使用不同的损失函数,以分别达到目标分割和轮廓勾勒的效果,最后Boundary Snapping将前两步的结果结合,得到更准确的物体分割结果。
Alt
优秀的深度学习论文总是有大量的Baselines,OSVOS也不例外。其不但与DAVIS上最好的视频物体分割方法进行了比较,也将自身方法进行分割,从而验证其方法每一步的重要性。同时,OSVOS也考虑了很重要的一点——时间效率。最后,视频物体分割和视频物体追踪是类似的,OSVOS还与最好的视频物体追踪方法进行了比较。在以上大部分的实验结果中,OSVOS均取得了最好的效果。

二、论文代码分析

https://github.com/kmaninis/OSVOS-PyTorch

未完待续。

  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值