论文详解
文章平均质量分 95
不是很强 但是很秃
很爱盘逻辑的秃女士
展开
-
Advancing Vision Transformers with Group-Mix Attention 论文解析
视觉变形(ViTs) 通过对 多头自注意(MHSA) 的远程依赖关系建模来增强视觉识别,而多头自注意通常被表述为查询键值计算。然而,由 Query 和 Key 生成的注意图仅以单一粒度捕获 token 到 token 的相关性。本文认为自注意应该有一个更全面的机制来捕捉 token 和 group (即多个相邻token)之间的相关性,以获得更高的表征能力。因此,我们提出群体混合注意(GMA)原创 2024-08-14 14:48:51 · 1052 阅读 · 0 评论 -
DyFusion:基于动态融合的交叉注意三维目标检测 论文解析
本文提出了一种新的图像点云融合方法DyFusion。方法引入了CADF,这是一种利用交叉注意有效整合图像和点云特征的创新方法。这种集成不仅减少了错误,而且解决了特性丢失的挑战。文章还设计了SDA策略来解决数据扩充不足的问题,这有助于在训练数据中引入更多的变量,从而提高模型的鲁棒性和泛化能力。原创 2024-08-05 15:50:21 · 1286 阅读 · 0 评论