【深度学习】卷积 (convolution)

卷积运算

卷积运算是 分析数学 中的一种运算方式,在CNN中通常仅涉及其中的 离散卷积
这里写图片描述

线性操作

百度百科 中说,“卷积是一种 线性运算 ”。

卷积层

卷积层即通过卷积操作完成线性映射的层,本质上是一种 局部操作 :
这里写图片描述

Note:

  • 卷积层其实就是一系列 滤波器(filter)叠放
  • 全连接层:本质上也是一种卷积层,是一种 全局操作 (局部操作 的 极端情况)
  • 池化层:池化操作和卷积操作类似,但由于其不为线性映射(卷积操作必须是线性映射),因此,池化操作只能视为原理类似“卷积”,通过 p-范数 实现 线性映射的层。

卷积计算的python实现

Python实现图像卷积操作

note

  • 卷积层是没有“厚度”一说的。如果非要有,那么假设一个卷积层由10个滤波器(假设每个滤波器有16通道)组成,那么该卷积层的“厚度”即为10。和输入输出数据那种只需根据三维尺度就能直接定量的“厚度”是有本质区别的。
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
深度学习卷积网络中,常用的方法有以下几种: 1. 卷积层(Convolutional Layer):卷积层是卷积神经网络的核心组成部分。它通过在输入数据上进行卷积操作,提取图像的局部特征。卷积层通常由多个卷积核组成,每个卷积核负责提取一种特定的特征。 2. 池化层(Pooling Layer):池化层用于对卷积层的输出进行降维处理,减少模型的参数数量。常见的池化方法有最大池化(Max Pooling)和平均池化(Average Pooling),它们分别提取局部区域的最大值和平均值作为输出。 3. 批归一化(Batch Normalization):批归一化是一种用于加速深度神经网络训练过程的技术。它通过对每一批输入数据进行归一化操作,使得网络更加稳定和易于训练。 4. 激活函数(Activation Function):激活函数引入非线性变换,增加了深度神经网络的表达能力。常见的激活函数有ReLU、Sigmoid和Tanh等。 5. Dropout:Dropout是一种正则化技术,通过随机将一部分神经元的输出置为0,可以减少模型的过拟合。 6. 卷积神经网络的结构设计:包括网络的深度、卷积核的大小和数量、池化操作的类型和步长等。这些设计选择会影响网络的特征提取能力和计算效率。 以上是一些常用的深度学习卷积网络中的方法,当然还有其他的一些技术和改进方法,例如残差连接(Residual Connections)、多尺度卷积(Multi-scale Convolution)等。不同的方法可以根据具体任务和数据集的特点进行选择和组合。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值