ATTENTION
文章平均质量分 90
落了一地秋
这个作者很懒,什么都没留下…
展开
-
Non Local Module相关blog阅读笔记
Non Local Module相关blog阅读笔记申明BLOG1BLOG2BLOG3 (提供了代码)文献摘要(来自BLOG1)思考?介绍(来自BLOG1)何为关系推理?传统的非局部模块和改进的ENL(efficient non local module)(来自BLOG1)主要贡献(来自BLOG1)问题?可以置于网络任意位置?由粗到细的方式获得关系推理?Related Work(来自BLOG1)思考与解释Approach(来自BLOG1)额外补充加强理解(来自BLOG2)Non local module 例原创 2021-08-17 11:45:34 · 340 阅读 · 0 评论 -
Attention机制理解笔记(空间注意力+通道注意力+CBAM+BAM)
Attention机制理解笔记声明Attention分类(主要SA和CA)spitial attentionchannel attentionSA + CA(spitial attention+channel attention)加强SA+CA理解空间注意力机制和通道注意力机制解释attention机制Attention模型架构1.空间注意力模型(spatial attention)2.通道注意力机制3.空间和通道注意力机制的融合CBAM 和 BAMBLOG1的笔记重点及总结BLOG2重点看下这篇文章BAM原创 2021-08-16 20:46:53 · 32797 阅读 · 3 评论
分享