![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Attention文献阅读
文章平均质量分 66
pig不会cv
这个作者很懒,什么都没留下…
展开
-
1.Transformer:Attention Is All You Need
(看了一个小时,后面的positional embedding没看)原创 2023-10-17 22:19:08 · 23 阅读 · 0 评论 -
2.2021WACV:Rotate to Attend: Convolutional Triplet Attention Module
一种attention:通过翻转来设计attention。原创 2023-10-10 15:30:25 · 63 阅读 · 1 评论 -
1.信号处理顶会-ICASSP:SA-Net: shuffle attention for deep convolutional neural networks
CODE:https://github.com/wofmanaf/SA-Net在计算机视觉研究中主要有两种广泛使用的注意机制,空间注意和通道注意,它们分别旨在捕获像素级的成对关系和通道依赖性。虽然将它们融合在一起可能会比它们各自的实现更好的性能,但这将不可避免地增加计算开销。→Shuffle Attention(SA)模块(1)分组:SA首先将通道尺寸分组为多个子特征,然后并行处理它们。(2)Attention:然后,对于每个子特征,SA利用Shuffle Unit来描绘空间和通道维度上的特征依赖性。(3)原创 2023-09-27 15:45:34 · 173 阅读 · 0 评论 -
3.2021CVPR:Coordinate Attention for Efficient Mobile Network Design
坐标注意力,就是把图像沿H、W方向生成X、Y坐标,分别对X、Y进行注意力。原创 2023-10-11 17:00:51 · 68 阅读 · 0 评论