可变形的Tranformer算法详解与源码——DAT:Vision Transformer with Deformable Attention

源码即示例数据见文末

Windows环境下可运行        

1.概述

        最近,Transformer被广泛应用于视觉领域中,使用大规模数据集训练的Tranformer深度模型性能已经具备一定的优越性。但是Transformer的计算量巨大,对设备的要求更高(显存),这主要是由于每个queries patch要参加的keys过多,会导致计算成本高,收敛速度慢,并增加了过拟合的风险。并且我们往往过多的考虑了不相干的部分。

        现有的研究,如swin transformer和PVT虽然有效,但手工制作的注意力模式(Swin transformer主要采用窗口,而PVT使用卷积或池化对Key和Values进行下采样)是与数据无关的,可能不是最佳的。相关的keys/values很可能被删除,而不那么重要的keys仍然被保留。

        受可变形卷积的启发,作者希望能够设计出一种可变形的Transformer。但是与DCN保留卷积核的大小,而使用偏置和插值法重构卷积核内部的特征点的做法不同,作者并不是希望采用类似的方式重构每一个Patch的特征点,这在计算成本上是巨大的。作者希望能够找到最具代表性的Keys和Values,使用这些具有代表性的Keys和Values参与运算,以实现缩减计算量的目的。

        

        具体来说,从实现的角度,首先,初始化一组keys和values关键点,它的个数是可以进行设置的࿰

  • 2
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

樱花的浪漫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值