ViT自适应patch划分 ACM MM 2021

Transformer在计算机视觉方面取得了巨大的成功,而如何分割图像中的patch仍然是一个问题。现有的方法通常使用固定大小的patch embedding,这可能会破坏对象的语义。为了解决这一问题,作者提出了一种新的Deformable Patch模块(DPT),该模块以数据驱动的方式将图像自适应地分割成不同位置和大小的patch,而不是使用固定patch。该方法可以很好地保留patch中的语义。DPT是可插拔的模块,可以很容易集成到不同的Transformer中,从而实现端到端的训练。结果表明,DPT在ImageNet分类上可以达到81.9%的Top-1准确率,在MSCOCO目标检测上,结合RetinaNet可以达到43.7%的box mAP,结合Mask R-CNN可以达到44.3%。

文章来源:DPT: Deformable Patch-based Transformer for Visual Recognition (ACM MM2021)

引言

fig1

  • 图1:vanilla的patch分割实例。a为原始patch embedding,这是一种对张量的固定分割,可能会破坏语义。b为DPT的patch embedding,DPT使用可学习的位置和尺度对张量进行动态分割。

transformer在NLP兴起,逐渐成为离散序列建模的主流方法,后来被应用于视觉研究。transformer通常将输入图像分成固定大小的patch序列(patch大小16×16),利用多头注意力对patch序列建模上下文关系。目前,ViT依然存在改进挑战,目前的工作都基于固定的patch,这种hard patch会带来两个问题:

  • 图像中局部结构崩溃,如图1a所示,hard patch难以捕捉到完整的与对象相关的局部结构,因为对象在不同的图像中具有不同的比例。
  • 图像之间的语义不一致,不同图像中的同一对象可能具有不同的几何变换(缩放,旋转),固定的patch分割会捕获不同图像中同一个对象的不一致信息。

因此,固定的patch分割会破坏语义信息,导致性能下降。

为了解决上述问题,作者提出了一个名为DePatch的新模块,它以可变形的方式分割图像为patch。通过这种方式,我们可以在一个patch中更好地保留语义,减少固定patch分割造成的语义破坏。为了实现这一点,DPT学习了feature map空间中每个patch的偏移和比例。偏移量和比例是基于输入feature map学习的,并为每个patch生成,如图1b所示。

所提出的模块是轻量级的,并且引入了非常少量的参数和计算。更重要的是,它可以作为一个即插即用模块(plug-and-play)工作,可以很容易地集成到其他Transformer架构中。带有DePatch模块的Transformer被命名为基于可变形patch的Transformer DPT。在这项工作中,作者将DePatch模块集成到Pyramid Vision Transformer(PVT)中,以验证其有效性,因为PVT在像素级预测任务(如目标检测和语义分割)中实现了最先进的性能。通过可变形patch调整,DPT基于局部上下文结构为每个patch生成完整、鲁棒和有判别性的特征。因此,它不仅可以在分类任务上实现高性能,而且在高度依赖于局部特征的任务(例如目标检测,语义分割)上也优于其他方法。与PVT Tiny相比,DPT在ImageNet分类上实现了2.3%的改进,在用于MSCOCO对象检测的RetinaNet和Mask R-CNN框架下,box mAP分别提高了2.8%和3.5%。

方法

前言:Vision Transformer

ViT由三个部分组成,一个patch embedding模块,多头注意力模块,前馈多层感知机MLP。网络从patch embedding模块开始,该模块将输入张量转换为token序列,然后输入多头自注意力模块和MLP以获得最终表示。下面主要阐述patch embedding模块,并回顾多头自注意力模块。

patch embedding模块将图像分割成具有固定大小和位置的patch,并用线性层embedding每个patch。假设输入张量为 A ∈ R H × W × C A\in R^{H\times W\times C} ARH×W×C,为了化简,假设 H = W H=W H=W。过去的工作将 A A A分割为具有 N N N个patch的序列,patch的大小为 s × s s\times s s×s,其中 s = [ H / N ] s=[H/\sqrt{N}] s=[H/N ]。这个序列被表示为 { z ( i ) } 1 ≤ i ≤ N \left\{z^{(i)}\right\}_{1\leq i\leq N} {z(i)}1iN

为了更好解释patch分割过程,作者重新定义patch embedding模块。每个patch z ( i ) z^{(i)} z(i)可以被看作输入图像中一个矩形区域的表示。我们记其中心坐标为 ( x c t ( i ) , y c t ( i ) ) (x_{ct}^{(i)},y_{ct}^{(i)}) (xct(i),yct(i))。由于patch的大小固定,左上角坐标和右下角坐标可以直接得到: ( x c t ( i ) − s / 2 , y c t ( i ) − s / 2 ) , ( x c t ( i ) + s / 2 , y c t ( i ) + s / 2 ) (x_{ct}^{(i)}-s/2,y_{ct}^{(i)}-s/2),(x_{ct}^{(i)}+s/2,y_{ct}^{(i)}+s/2) (xct(i)s/2,yct(i)s/2),(xct(i)+s/2,yct(i)+s/2)在当前patch i i i 中,有 s × s s\times s s×s个像素,它们的坐标被表示为 p ⃗ ( i , j ) = ( p x ( i , j ) , p y ( i , j ) ) \vec{p}^{(i,j)}=(p_{x}^{(i,j)},p_{y}^{(i,j)}) p (i,j)=(px(i,j),py(i,j))。所有的坐标 p ⃗ ( i , j ) \vec{p}^{(i,j)} p (i,j)都是整数。每个像素对应的特征被记为 { a ~ ( i , j ) } 1 ≤ j ≤ s × s \left\{\widetilde{a}^{(i,j)}\right\}_{1\leq j \leq s\times s} {a (i,j)}1js×s。这些特征被flatten并被线性处理得到patch i i i 的新表示: z ( i ) = W p a t c h ⋅ c o n c a t { a ~ ( i , 1 ) , . . . , a ~ ( i , s × s ) } + b p a t c h z^{(i)}=W_{patch}\cdot concat\left\{\widetilde{a}^{(i,1)},...,\widetilde{a}^{(i,s\times s)}\right\}+b_{patch} z(i)=Wpatchconcat{a (i,1),...,a (i,s×s)}+bpatch多头自注意力模块聚合整个输入序列上的相关信息,为每个token提供全局视图。该模块学习每个注意力头的三组代表性特征:query Q h ∈ R N × d Q_{h}\in R^{N\times d} QhRN×d,key K h ∈ R N × d K_{h}\in R^{N\times d} KhRN×d,value V h ∈ R N × d V_{h}\in R^{N\times d} VhRN×d Q h Q_{h} Qh K h K_{h} Kh相乘得到attention map A t t n h Attn_{h} Attnh,其反应了不同patch之间的相似性。attention map再作为权重改变 V h V_{h} Vh。计算不同头部的独立结果,以获得不同的特征,然后将所有头部的结果连接并转换为新表示 Z ′ Z' Z A t t n h = S o f t m a x ( Q h K h T / d ) Attn_{h}=Softmax(Q_{h}K_{h}^{T}/\sqrt{d}) Attnh=Softmax(QhKhT/d ) Z ′ = c o n c a t { A t t n 1 V 1 , . . . , A t t n H V H } W p r o j + b p r o j Z'=concat\left\{Attn_{1}V_{1},...,Attn_{H}V_{H}\right\}W_{proj}+b_{proj} Z=concat{Attn1V1,...,AttnHVH}Wproj+bproj

DePatch模块

对于固定patch分割的方式,patch的位置 ( x c t ( i ) , y c t ( i ) ) (x_{ct}^{(i)},y_{ct}^{(i)}) (xct(i),yct(i))和大小 s s s是固定的,因此矩形区域对于每个patch是不变的。每个patch的特征直接用其内部像素表示。为了更好地定位重要区域并适应对象的形变,作者开发了DePatch。
fig2

  • 图2:DePatch模块说明。利用局部特征预测偏移量和尺度,通过双线性插值得到新的embedding。

首先,将每个patch的位置和size转化为基于输入内容的预测参数。对于位置,预测原始patch中心的偏移量 ( δ x , δ y ) (\delta_{x},\delta_{y}) (δx,δy)。对于size,预测 s h s_{h} sh s w s_{w} sw替换 s s s。这样,得到了一个新的矩形区域,并记其左上角和右下角坐标为 ( x 1 , y 1 ) (x_{1},y_{1}) (x1,y1) ( x 2 , y 2 ) (x_{2},y_{2}) (x2,y2)。为了清楚,先省略上标 ( i ) (i) (i),因此注意, ( δ x , δ y , s w , s h ) (\delta_{x},\delta_{y},s_{w},s_{h}) (δx,δy,sw,sh)对于每个patch都是不同的。 x 1 = x c t + δ x − s w 2 , y 1 = y c t + δ y − s h 2 x_{1}=x_{ct}+\delta_{x}-\frac{s_{w}}{2},y_{1}=y_{ct}+\delta_{y}-\frac{s_{h}}{2} x1=xct+δx2sw,y1=yct+δy2sh x 2 = x c t + δ x + s w 2 , y 2 = y c t + δ y + s h 2 x_{2}=x_{ct}+\delta_{x}+\frac{s_{w}}{2},y_{2}=y_{ct}+\delta_{y}+\frac{s_{h}}{2} x2=xct+δx+2sw,y2=yct+δy+2sh如图2所示,作者添加了新的分支来预测这些参数。基于输入特征图,为每个patch预测 ( δ x , δ y , s w , s h ) (\delta_{x},\delta_{y},s_{w},s_{h}) (δx,δy,sw,sh),然后再embedding。

偏移量和尺度的预测如下: δ x , δ y = T a n h ( W o f f s e t ⋅ f p ( A ) ) \delta_{x},\delta_{y}=Tanh(W_{offset}\cdot f_{p}(A)) δx,δy=Tanh(Woffsetfp(A)) s w , s h = R e L U ( T a n h ( W s c a l e ⋅ f p ( A ) + b s c a l e ) ) s_{w},s_{h}=ReLU(Tanh(W_{scale}\cdot f_{p}(A)+b_{scale})) sw,sh=ReLU(Tanh(Wscalefp(A)+bscale))其中, f p f_{p} fp可以是任何特征提取器,作者使用的是单个线性层。在训练初始阶段, W o f f s e t W_{offset} Woffset W s c a l e W_{scale} Wscale b s c a l e b_{scale} bscale被初始化为0。

确定矩形区域后,提取每个patch的特征。主要问题是区域大小不同,预测的坐标通常是float数。因此用抽样-插值的方法(sampling-and-interpolation)来解决这个问题。给定矩形坐标 ( x 1 , y 1 ) (x_{1},y_{1}) (x1,y1) ( x 2 , y 2 ) (x_{2},y_{2}) (x2,y2),在区域内均匀抽样 k × k k\times k k×k个points, k k k是一个超参数。每个抽样的位置为 p ⃗ ( j ) = ( p x ( j ) , p y ( j ) ) \vec{p}^{(j)}=(p_{x}^{(j)},p_{y}^{(j)}) p (j)=(px(j),py(j)) 1 ≤ j ≤ k × k 1\leq j\leq k\times k 1jk×k。这些抽样点对应的特征为 { a ~ ( j ) } 1 ≤ j ≤ k × k \left\{\widetilde{a}^{(j)}\right\}_{1\leq j\leq k\times k} {a (j)}1jk×k被输入线性层得到patch embedding: z ( i ) = W ⋅ c o n c a t { a ~ ( 1 ) , . . . , a ~ ( k × k ) } + b z^{(i)}=W\cdot concat\left\{\widetilde{a}^{(1)},...,\widetilde{a}^{(k\times k)}\right\}+b z(i)=Wconcat{a (1),...,a (k×k)}+b注意,抽样点的index是float数,为了得到该index的特征,需要bilinear interpolation,假设要获取任意一个float index ( p x , p y ) (p_{x},p_{y}) (px,py) 的特征,则有: A ( p x , p y ) = ∑ q x , q y G ( p x , p y ; q x , q y ) ⋅ A ( q x , q y ) A(p_{x},p_{y})=\sum_{q_{x},q_{y}}G(p_{x},p_{y};q_{x},q_{y})\cdot A(q_{x},q_{y}) A(px,py)=qx,qyG(px,py;qx,qy)A(qx,qy) G ( p x , p y ; q x , q y ) = m a x ( 0 , 1 − ∣ p x − q x ∣ ) ⋅ m a x ( 0 , 1 − ∣ p y − q y ∣ ) G(p_{x},p_{y};q_{x},q_{y})=max(0,1-|p_{x}-q_{x}|)\cdot max(0,1-|p_{y}-q_{y}|) G(px,py;qx,qy)=max(0,1pxqx)max(0,1pyqy)其中, G G G是双线性插值kernel,它只在靠近 ( p x , p y ) (p_{x},p_{y}) (px,py)的四个整型index上取特征。这可以被快速计算。

整体架构

DePatch是一个自适应模块,可以改变patch的位置和尺寸。由于DePatch的可插拔性,作者将其集成到各种ViT中。在文中,作者将其集成到PVT中,PVT分为4个stage,它利用spatial-reduction注意力来降低处理高分辨率特征图的成本。DePatch+PVT成为DPT,通过将stage 2,3,4中的patch embedding换成DPT而构建。整体架构见图3。
fig3

  • 图3:左边是PVT,右边是DPT。

实验

实验包括图像分类和目标检测。
fig4

  • 表1:ImageNet上的分类结果。

fig5

  • 表2:MSCOCO目标检测结果(DePatch+RetinaNeT)。

fig6

  • 图4:对于DPT-Small的stage 4,可视化学习的patch以及偏移量。可以看出,DPT能够根据内容自适应调整每个patch的位置和比例。
  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值