真的这么丝滑吗?Hinton组提出基于大型全景掩码的实例分割框架,图像视频场景丝滑切换...

谷歌大脑的研究者们提出了一种名为Pix2Seq-D的通用模型,该模型能够以端到端的方式处理全景分割任务,无需多阶段的管道或定制架构。他们采用扩散模型,解决了在大型全景掩码上训练的挑战,同时模型可以应用于视频数据,实现对象跟踪和分割。实验结果显示,Pix2Seq-D在MS-COCO和DAVIS数据集上与最先进的方法表现相当,甚至在某些情况下优于专业方法,展示了其在通用视觉模型领域的潜力。
摘要由CSDN通过智能技术生成

来源:机器之心

本文的创新点一方面在于能够在大型全景掩码上训练扩散模型,一方面在于可以同时适配图片和流媒体场景。

全景分割是一项基本的视觉任务,该任务旨在为图像的每个像素指定语义标签和实例标签。语义标签描述每个像素的类别(例如天空、竖直物体等),实例标签为图像中的每个实例提供唯一的 ID(以区分同一类别的不同实例)。该任务结合了语义分割和实例分割,提供了关于场景的丰富语义信息。

虽然语义标签的类别是先验固定的,但分配给图像中对象的实例 ID 是可以互相交换同时不影响识别的。例如,交换两辆车的实例 ID 不会影响结果。因此,经过训练以预测实例 ID 的神经网络应该能够学习从单个图像到多个实例 ID 分配的一对多映射。一对多映射的学习具有挑战性,传统方法通常利用多个阶段的管道,包括对象检测、分割、合并多个预测 。最近,基于可微二分图匹配,一些学者提出了端到端方法,能够有效地将一对多映射转换为基于识别匹配的一对一映射。然而,这些方法仍然需要定制的架构和专门的损失函数,以及用于全景分割任务的内置归纳偏置。

最近的通用视觉模型,例如 Pix2Seq、OFA、UViM 和 Unified I/O,提倡通用的、不限制任务的框架来实现泛化任务,同时还能比以前的模型简单得多。例如,Pix2Seq 根据图像生成一系列具有语义意义的序列,来完成一些核心的视觉任务,并且这些模型基于 Transformers 来训练自回归模型。

在一篇新的论文中,谷歌大脑的 Ting Chen、Geoffrey Hinton 等研究者遵循相同的理念, 从条件离散数据生成的角度理解全景分割任务问题。

b5a71b3fd2dbd282f7ce5f5052f8ecd6.png

论文链接 https://arxiv.org/pdf/2210.06366.pdf

如图 1 所示,研究者为全景掩码设计了一个生成模型,并为输入到模型的每一张图片都生成一组离散 token。使用者只需将过去帧的预测作为附加条件信号,就可以将此模型应用于视频数据(在线数据 / 流媒体)。这样一来,模型就可以自动地学习跟踪和分割对象。

722e34a00a12ce084e45390539a4dd44.png

全景分割的生成式建模非常具有挑战性,因为全景掩码是离散的,或者说是有类别的,并且模型可能非常大。例如,要生成 512×1024 的全景掩码,模型必须生成超过 1M 的离散标记(语义标签和实例标签)。这对于自回归模型来说开销还是比较昂贵的,因为 token 本质上是顺序的,很难随着输入数据的规模变化而变化。扩散模型更擅长处理高维数据,但它们最常应用于连续域而不是离散域。通过用模拟位表示离散数据,本文作者表明可以直接在大型全景掩码上训练扩散模型,而无需学习潜在空间。

通过广泛的实验,研究者们证明了他们的通用法可以在类似环境中与最先进的专家方法一较高下。

模型架构

扩散模型采样是迭代进行的,因此在推理过程中必须多次运行网络的前向传播。因此,如图 2 所示,研究者有意将网络分成两个组件:1)图像编码器;2) 掩码解码器。前者将原始像素数据映射到高级表示向量,然后掩码解码器迭代地读出全景掩码。

623c8143e4d91df12519e7eac93f51b9.png

像素 / 图像编码器

编码器是将原始图像e6e0fc66021ed8c33836cffd9fcba9f1.png映射到d96239b27cea660785d326ba52a37444.png中的特征图的网络,其中 H’和 w’是全景遮罩的高度和宽度。全景遮罩可以与原始图像的大小相同或小一点。在这项工作中,研究者们使用 ResNet 作为骨干网络,然后使用 Transformer 的编码器层作为特征提取器。为了确保输出的特征图具有足够的分辨率,并包含不同尺度的特征,受 U-Net 和特征金字塔网络的启发,研究者使用具有双边连接和上采样操作的卷积从不同的分辨率来合并特征。虽然可以使用更复杂的编码器,这样可以使用一些架构设计方面的最新进展,但这不是网络模型的主要关注点,所以研究者只是使用较为简单的特征提取器来说明其在模型中的作用。

掩码解码器

解码器在模型推理过程中基于图像特征,迭代地细化全景掩码。具体来说,研究者使用的掩码解码器是 TransUNet。该网络将来自编码器的图像特征图和噪声掩码(随机初始化或迭代地来自编码过程)的连接作为输入,并输出对掩码的精确预测。解码器与用于图像生成和图像到图像转换的标准 U-Net 架构之间的一个区别是,在上采样之前,本文使用的 U-Net 顶部使用了带有交叉注意力层的 transformer 解码器层来合并编码的图像特征。

在视频模态下的应用

研究者将图像条件下的全景遮罩建模为:p(m|x)。基于给定视频的三维掩码(有一个额外的时间维度),本文的模型就可以直接适用于视频全景分割。为了适应在线 / 流媒体的视频设置,可以改用 p(m_t|x_t,m_(t-1),m_(t-k))建模,从而基于当前的图像和上一时刻的掩码生成新的全景掩码。如图 5 所示,这一变化可以通过将过去的全景掩码 (m_(t-1),m_(t-k)) 与现有的噪声掩码连接起来来实现。除了这个微小的变化之外,其他方面都与视频基础模型(p(m|x))相同。这个模型很简单,对图像全景模型进行微调就可以应用到视频场景里。

abbda2e48edaca4f3b9d3184818ce4b6.png

实验结果

本文与两个系列的最先进的方法进行了比较,即专家方法和通用方法。表 1 总结了在 MS-COCO 数据集上的结果。Pix2Seq-D 在基于 ResNet-50 的主干上的泛化质量(PQ)与最先进的方法相比有一定的竞争力。与最近的其他通用模型如 UViM 相比,本文的模型表现明显更好,同时效率更高。

e6f5b68f38908b8d7cc2cecfff8755f6.png

表 2 将 Pix2Seq-D 与无监督视频物体分割最先进的方法在 DAVIS 数据集上进行了比较,指标使用的是标准的 J&F。值得注意的是基线不包括其他通用模型,因为它们不能直接适用于该任务。本文的方法在没有专门设计的情况下取得了与最先进的方法相同的结果。

37ecd266b0eeafd58d29a41fcac4d7c4.png

图 8、9 和 10 显示了 Pix2Seq-D 在 MS-COCO、Cityscape 和 DAVIS 上的示例结果。

fe707f2d7d648e026ad39bef787c7f03.png

749aaab71ae2b6c7273f1d59d612f289.png

881127b5179b63b4bca7084ae2162a5b.png

推荐阅读

欢迎大家加入DLer-计算机视觉技术交流群!

大家好,群里会第一时间发布计算机视觉方向的前沿论文解读和交流分享,主要方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如图像分类+上交+小明)

f09dd4de48cca9dd5427d65f48663972.jpeg

👆 长按识别,邀请您进群!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值