多层卷积网络以及通道变化问题

本文均为总结其他人的博客对遇见的一些问题的解决,如有侵权,请联系删帖

多层卷积网络以及通道变化问题

一、多层卷积层单池化层的作用
卷积层提取特征,池化层选择特征,全连接层进行分类。

用卷积神经网络提取图片上的一只小猫时,卷积神经网络会先提取图片上不同方向的直线和拐角;接着组合成高阶特征,比如三角形,正方形等;再接着抽象组合成眼睛,鼻子,嘴巴等五官;最后将五官组合成一张脸,每个卷积层提取的特征在下一层都会抽象组合成更高阶特征。

单卷积层单池化层的Lenet卷积神经网络,提取特征不太丰富,出现了多卷积层单池化层的Alexnet卷积神经网络

两个卷积层或两个以上卷积层后才出现一个池化层,即卷积层串联。其实这是一种优化操作,通过增加卷积层数来缩小卷积核的尺寸,进而来减少参数,并且多层卷积层有多个非线性操作,优化前的单层卷积层只有一个非线性操作,优化后的对特征学习能力更强。
比如输入的数据尺寸为11*11*1,经过两个3*3*1的卷积核,数据尺寸变为7*7*1。相当于经过一个5*5*1的卷积核。即两个3*3*1的卷积核和一个7*7*1的感受野相同。
经过两个3*3*1的卷积核的计算过程:
(11-3)/1+1=9 数据尺寸此时为9*9*1
(9-3)/1+1=7 数据尺寸此时为7*7*1
经过一个5*5*1的卷积核的计算过程:
(11-5)/1+1=7 数据尺寸此时为7*7*1
二、卷积过程中通道变化问题
大家经常见到卷积神经网络中通道数增加的情况,比如227*227*3的彩色图像,经过一层卷积层输出数据尺寸变为55*55*96,通道数增加。这是因为输入数据被96个尺寸为11*11*3,步长为4不同的卷积核进行卷积运算,输入数据每经过一个尺寸为11*11*3,步长为4卷积核,都会产生一个55*55*1的数据,当经过96次卷积运算后,通道数变成了96,通道数变大。

以上如果有哪里表述不清楚的,欢迎大家留言指正

  • 15
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,常用于图像和视频识别、分类和处理。其基本思想是通过卷操作来提取特征,然后利用池化操作对特征进行降维,最后通过全连接层进行分类。 CNN的基本结构包括卷层、激活函数、池化层、全连接层和softmax层等。下面分别介绍这些层的实现过程。 1. 卷层 卷层是CNN的核心层,其作用是提取图像的特征。卷层的输入通常是一个3D张量,包括高度、宽度和深度三个维度,其中深度表示图像的通道数。 卷操作就是将输入张量与一个卷核进行卷运算,得到一个新的张量。卷核可以看作是一种局部连接的方式,每个卷核只关注输入张量中的一小部分,从而提取出局部的特征。卷操作的计算过程可以使用矩阵乘法进行实现。 2. 激活函数 卷层的输出需要经过激活函数进行非线性转换,从而增加模型的表达能力。常用的激活函数包括sigmoid函数、ReLU函数和tanh函数等。 3. 池化层 池化层的作用是对卷层的输出进行降维,减少模型的参数数量并防止过拟合。常用的池化方式包括最大池化和平均池化,其实现过程与卷操作类似。 4. 全连接层 全连接层的作用是将卷和池化层提取出的特征进行分类。全连接层中的每个神经元都与前一层的所有神经元相连,从而实现对特征的全局处理。 5. softmax层 softmax层通常作为CNN的最后一层,其作用是将全连接层输出的结果进行归一化,得到每个类别的概率值。softmax函数的实现比较简单,可以使用指数函数进行计算。 以上就是卷神经网络的实现过程分析。在实际应用中,还需要进行超参数调节、数据增强和模型优化等操作,以提高模型的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值