关于卷积神经网络(CNN)概念及过程的理解

局部连接:
局部区域大小就是滤波器Filter,每一个卷积核对应一个Filter,对区域内数据进行卷积操作;
权值共享:
遍历一次CNN结构(或者一层卷积层),每一层的每一个卷积核,在滑动计算一个Batch size的图像矩阵时,卷积核的参数都是固定的,直到下一轮卷积操作前才会更新权值;

卷积神经网络最大的特点就在于它的局部连接和权值共享,通过卷积操作实现局部连接,这个局部区域的大小就是滤波器filter,避免了全连接中参数过多造成无法计算的情况,再通过参数共享来缩减实际参数的数量,为实现多层网络提供了可能。
在这里插入图片描述
参数计算:
在下图中,如果不使用权值共享,则特征图由10个32321的特征图组成,每个特征图上有1024个神经元,每个神经元对应输入图像上的一块553的区域,所以一个神经元和输入图像的这块区域有75个连接(即每一次计算神经网络的卷积核的权值都不是固定的),即75个权值参数,则共有75102410=768000个权值参数,这对于参数的调整和传递非常不利,因此卷积神经网络引入权值共享原则,一个特征图上每个神经元对应的75个权值参数被每个神经元共享,这里的共享其实就是指的每个神经元中75个权值参数采用对应相同的权值,权值共享时,只是在每一个filter上的每一个channel中是共享的,这样便只需75*10=750个权值参数,而每个特征图的阈值也共享,即需要10个阈值,则总共需要750+10=760个参数]
在这里插入图片描述
卷积公式和卷积核的关系:
直接相乘也看成卷积的一种,但真正符合卷积公式的应该是类似卷积核转置后再相乘

池化过程:
池化过程与卷积过程类似,也是通过窗口滑动计算结果,只是计算更简单

高低阶特征:
本质就是经过越多卷积层后输出的特征越高阶

定义卷积层的功能:
通过数据驱动进行训练,隐式的体现各个卷积核对特定功能的提取

部分内容参考链接: https://blog.csdn.net/qq_40962368/article/details/82864606

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值