深度解析卷积神经网络中的卷积操作

学习过信号处理的人知道,信号上的卷积操作是通过一个信号旋转后再在信号上进行移动逐渐得到重叠后的新信号。与图像上的卷积操作不同,图像上的卷积操作实际上是图像的感受野与卷积核进行加权和,终其原因是因为,数学上的卷积操作与图像上的卷积操作不同。

一、数学中的卷积

数学中的卷积操作分为两种,一种是连续函数进行卷积操作。另外一种是离散卷积操作。图像中由于是离散的点,以下将着重介绍离散卷积操作的详细步骤。

1、准备工作
矩阵的卷积准备一共是分为两个,一个是待处理矩阵X;一个是3x3的卷积核。

卷积核的矩阵如下;
在这里插入图片描述
待处理矩阵X;
在这里插入图片描述
2、执行

第一步,将卷积核翻转180°,也就是成为了
在这里插入图片描述
第二步,将卷积核h的中心对准x的第一个元素,然后对应元素相乘后相加,没有元素的地方补0。
在这里插入图片描述
第三步,每个元素都像这样计算出来就可以得到一个输出矩阵,就是卷积结果
在这里插入图片描述
最后结果
在这里插入图片描述

二、卷积神经网络中的卷积

其本质上是一种互相关函数计算或者说图像处理中的spatial filter
在这里插入图片描述
图像的卷积中是没有对卷积核进行反转的,而是直接通过图像对感受野上的值进行加权和,本质上图像处理是对图像上的特征进行特征提取,其反转的意义不大。

在这里插入图片描述

三、数学卷积和图像卷积的区别

最直观的就是:是否进行翻转,然后再进行对应元素的加权求和
其实本质上来说是两者的用途不同

  • 数学中的卷积,主要是为了诸如信号处理,求两个随机变量和的分部等而定义的运算,所以需要“翻转”是根据问题的需要而确定的。
  • 卷积神经网络中的“卷积”是为了提取图像的特征,其实只是为了借鉴”加权求和“的特点
  • 最后一点是,
    数学中的”卷积核“都是已知或者给定的,i卷积神经网络中的”卷积核“本身就是为了训练学习的参数,不是给定的,根据训练学习的,那么不反转和反转这项工作本身不存在什么本质的意义,因为无论是否进行反转,其对应的卷积核的参数都是未知数。
  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

绛洞花主敏明

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值