论文笔记 (HAttMatting)

本文探讨了深度学习中的注意力机制,尤其是SCA-CNN中的通道注意力(Channel-Wise Attention),解释了它如何不同于仅在空间层面使用的注意力。通道注意力通过对可能包含目标特征的通道加权,实现对上下文语义的理解,而多层级结构进一步增强了信息提取能力。
摘要由CSDN通过智能技术生成
  1. 搞清楚 PFD 的 input,output大小,形式。
  2. 搞清楚本步骤作用
  3. 搞清楚如何实现的?具体流程
  4. 搞清楚关键字:channel-wise attention

Shared MLP

MLP (Multilayer Perceptron) 多层感知器

  • 使用全连接层(fully connected layer)

  • 只接受向量(vector)作为输入

  • 包含输入,隐藏和输出层

  • 是CNN的一种特殊结构

  • 适用于分类,自然语言处理

CNN (Convolutional Neural Network) 卷积神经网络

  • 局部连接层(locally connected layer)

  • 可接受矩阵(matrix)作为输入

  • 适用于图像处理

 

Channel-Wise Attention

出处:SCA-CNN:

注意力机制的逻辑灵感来源于人类的注意力机制:对于重点信息的重点注意。就好比我们看一份报纸,第一个进入我们注意力的一般是文章的标题或者大幅图片的目标主题,然后我们的视觉才会顺着这个视觉焦点查找有用信息。正是对重点信息的重点注意,能让人类快速抓住信息本质,更加高效的理解信息框架。深度学习中的注意力机制本质上,正是对所提取的重点信息,进行

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值