TPAMI 2024 | P2T:用于场景理解的金字塔池化Transformer

224 篇文章 15 订阅 ¥29.90 ¥99.00

题目:P2T: Pyramid Pooling Transformer for Scene Understanding

P2T:用于场景理解的金字塔池化Transformer

作者:Yu-Huan Wu; Yun Liu; Xin Zhan; Ming-Ming Cheng

**源码链接:**https://github.com/yuhuan-wu/P2T


摘要

最近,视觉Transformer通过推动各种视觉任务的最前沿取得了巨大成功。视觉Transformer面临的最大挑战之一是图像标记的大序列长度导致高计算成本(二次复杂度)。解决这个问题的一个流行方法是使用单个池化操作来减少序列长度。本文考虑了如何改进现有的视觉Transformer,其中通过单个池化操作提取的池化特征似乎不够强大。为此,我们注意到金字塔池化由于其在上下文抽象方面的强能力,在各种视觉任务中已被证明是有效的。然而,金字塔池化尚未在主干网络设计中被探索。为了弥合这一差距,我们提出将金字塔池化适应到视觉Transformer中的多头自注意力(MHSA)中,同时减少序列长度并捕获强大的上下文特征。插上我们的基于池化的MHSAÿ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小白学视觉

您的赞赏是我们坚持下去的动力~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值