- 博客(1)
- 收藏
- 关注
原创 论文笔记 (HAttMatting)
搞清楚 PFD 的 input,output大小,形式。 搞清楚本步骤作用 搞清楚如何实现的?具体流程 搞清楚关键字:channel-wise attention出处:SCA-CNN:注意力机制的逻辑灵感来源于人类的注意力机制:对于重点信息的重点注意。就好比我们看一份报纸,第一个进入我们注意力的一般是文章的标题或者大幅图片的目标主题,然后我们的视觉才会顺着这个视觉焦点查找有用信息。正是对重点信息的重点注意,能让人类快速抓住信息本质,更加高效的理解信息框架。深度学习中的注意力机制本质上,正是对所提
2020-12-01 23:22:07 277
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人