《BoxeR: Box-Attention for 2D and 3D Transformers》讲解

文章目录

一:创新点

这篇论文也是效仿的Deformable transformer中改进思想,对于k的选取进行了特定选取。

Deformable transformer中提出了deformable-attention模块来选取reference_point附近的几个位置key,然后进行特征融合。

这篇论文则是提出了box-attention模块来特征融合,首先每一个query设置一个ref_windows,源码中是2✖2大小,学习调整这个框的offset,然后融合特定位置上的value,更新query。

decoder中两篇论文的思路也是一样的,都是先通过nn.MultiAttention()完成self-attention,然后通过他们提出的box-attention(deformable-attention)来交叉更新dec_query。

详细可以参考本人写的Deformable DETR源码讲解 ,核心思路都是一样的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值