卷积神经网络的层数一般超过三层_卷积神经网络CNN的意义

一、选用卷积的原因局部感知简单来说,卷积核的大小一般小于输入图像的大小(如果等于则是全连接),因此卷积提取出的特征会更多地关注局部 —— 这很符合日常我们接触到的图像处理。而每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。

参数共享参数共享最大的作用莫过于很大限度地减少运算量了。

多核一般我们都不会只用一个卷积核对输入图像进行过滤,因为一个核的参数是固定的,其提取的特征也会单一化。这就有点像是我们平时如何客观看待事物,必须要从多个角度分析事物,这样才能尽可能地避免对该事物产生偏见。我们也需要多个卷积核对输入图像进行卷积。

二、卷积神经网络中的参数计算举例1:

比如输入是一个32x32x3的图像,3表示RGB三通道,每个filter/kernel是5x5x3,一个卷积核产生一个feature map,下图中,有6个5x5x3的卷积核,故输出6个feature map(activation map),大小即为28x28x6。

a1bb2f4d36168abf7dd7a7945d443ec8.png
   下图中,第二层到第三层,其中每个卷积核大小为5x5x6,这里的6就是28x28x6中的6,两者需要相同,即每个卷积核的“层数”需要与输入的“层数”一致。有几个卷积核,就输出几个feature map,下图中,与第二层
  • 2
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用: 卷积神经网络(Convolutional Neural Network,简称CNN)是一类前馈神经网络,是基于神经认知机和权重共享的卷积神经层(感受野衍生概念)被提出的,由于其具有局部区域连接、权值共享、降采样的结构特点,如今在图像处理领域有较好效果并并大量应用。 引用: 在第二与第三章中我们介绍了各种卷积神经网络,并从代码方面实践并比较了不同参组合的LeNet-5与ResNet-18,故本章我们介绍一些可视化诊断的方法,来更直观地观察CNN模型诞生的过程。 卷积神经网络的实战主要包括以下几个步骤: 1. 据准备:首先,需要准备用于训练和测试的图像据集。可以使用现有的公开据集,如MNIST、CIFAR-10或ImageNet,或者根据自己的需求创建一个据集。 2. 网络搭建:根据任务的复杂性和据集的特点,选择适当的卷积神经网络模型。可以使用已有的模型,如LeNet、VGG、ResNet等,也可以根据需要自己设计网络结构。 3. 参初始化:在训练之前,需要对网络的参进行初始化。可以使用随机初始化或预训练的权重进行初始化。 4. 训练网络:使用准备好的训练据集来训练网络。训练过程中,通过反向传播算法来更新网络的权重和偏置,使网络能够逐渐学习到输入和输出之间的映射关系。 5. 模型评估:在训练完成后,使用测试据集来评估模型的性能。常用的评估指标包括准确率、精确率、召回率等。 6. 可视化诊断:为了更好地了解CNN模型的训练过程,可以使用可视化诊断方法对网络进行观察。例如,

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值