卷积后的特征有负数吗?_卷积神经网络CNN(卷积池化、感受野、共享权重和偏置、特征图)...

本文介绍了卷积神经网络CNN的基础知识,包括从全连接到局部连接、共享权重和偏置的概念,以及卷积层和池化层的作用。讨论了卷积层的卷积运算、参数减少和特征提取,强调了多个卷积核用于提取不同特征。池化层则通过最大值或平均值池化来减小数据尺寸,保持特征不变并提高模型鲁棒性。
摘要由CSDN通过智能技术生成

226577081ed7a648028f92bb09e89114.png

一、前言

卷积神经网络(Convolutional Neural Network,CNN)出现之前,神经网络中相邻的所有神经元之间都有连接,这称为全连接(fully-connected),如图1所示

44f4f7bb8c3cfa6c0907f377416f98f1.png
图1 全连接(fully-connected)

这种全连接方式会带来一个问题,如图2所示,假设输入图像大小为

,隐藏层一共有
个神经元,如果采用全连接的方式的话,那一共有
条连接,即
个权重,这么多的参数,如果每个参数都是浮点类型存储,可以想象这是多么恐怖,另外,不说别的,参数那么多,模型训练时容易学习到无关紧要的特征,容易导致过拟合,即在训练集中表现得很好,而在其它数据集中表现很差,具备很差的泛化能力

然而有科学研究,人眼去观察外界时,是通过先观察物体的局部信息,然后通过这些局部信息从而获得全局信息,即识别这个物体是什么.所以根据这个原理去设计神经网络的话,每一个神经元都不需要对全局图像做感受,每个神经元只感受局部的图像区域,然后在更高层,将这些感受不同局部的神经元综合起来就可以得到全局的信息了。显然,这种连接方式大大减少了连接数目,也就是减少了权重参数

这里也就出现了我们经常说的感受野(Receptive Field),即某个神经元能看到的输入图像的区域,关于更多Receptive Field的知识我前面有专栏详细讲解它的理解和计算

玖零猴:感受野(Receptive Field)的理解与计算​zhuanlan.zhihu.com
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值