卷积计算,CNN,CNN中的注意力相关概念

本文详细解析了从张量开始的深度学习基础,包括标准、带填充和步幅的卷积运算,以及卷积神经网络中感受野的概念。同时介绍了注意力模块中的通道注意力和空间注意力模块,如CBAM,通过全局平均池化和最大池化等技术实现权重计算。
摘要由CSDN通过智能技术生成

【10大专题,2.8w字详解】:从张量开始到GPT的《动手学深度学习》要点笔记

卷积运算

  • 标准卷积: 给定输入大小为n,卷积核大小为k,输出大小计算为:
    ( n h − k h + 1 ) × ( n w − k w + 1 ) (n_h − k_h + 1) \times (n_w − k_w + 1) (nhkh+1)×(nwkw+1)
    在这里插入图片描述

  • 带填充的卷积: 输入大小为n,卷积核大小为k,填充为p,输出大小计算为:
    ( n h − k h + p h + 1 ) × ( n w − k w + p w + 1 ) (n_h − k_h + p_h + 1) \times (n_w − k_w + p_w + 1) (nhkh+ph+1)×(nwkw+pw+1)
    在这里插入图片描述

  • 带步幅的卷积: 输入大小为n,卷积核大小为k,填充为p,步幅为s,输出大小计算为:
    ⌊ n h − k h + p h + s h s h ⌋ × ⌊ n w − k w + p w + s w s w ⌋ \left\lfloor\frac{n_h − k_h + p_h + s_h}{s_h}\right\rfloor \times \left\lfloor\frac{n_w − k_w + p_w + s_w}{s_w}\right\rfloor shnhkh+ph+sh×swnwkw+pw+sw
    在这里插入图片描述
    在这里插入图片描述

在卷积神经网络中,神经元的感受野是指在前向传播过程中可能影响该神经元计算的所有输入元素。感受野可以通过网络深度的增加而相应地扩大。

注意力模块 - CBAM

  • 通道注意力模块: 获取每个通道的重要性权重,通常通过全局平均池化和最大池化操作后的多层感知器(MLP)来实现。
  • 空间注意力模块: 获取空间位置的重要性权重,通常通过改变特征图通道数的池化操作和大尺寸卷积操作来实现。
    在这里插入图片描述
  • 10
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值