关于CNN的一个通俗解释

本文介绍了卷积神经网络(CNN)的基本过程,包括卷积、ReLU激活、池化以及 padding 的作用。讨论了最大池化和平均池化,并指出池化用于降低计算复杂度。在CNN中,通过全连接层对特征数组进行处理,最终得到目标识别的概率。通过反向传播和大量数据训练,不断优化网络参数。视频链接提供了进一步的学习资源。
摘要由CSDN通过智能技术生成

卷积神经网络要点

基本过程如下:

下面分别解释:

将图像拆分成对应的特点,被称为卷积核。然后查看被识别图像有无对应的卷积核来确认是否为目标物体。
用卷积核扫描目标图得出的一个二维图为特征图。
但是这样的话,岂不是有多少个卷积核就要扫描多少遍?
对于一个有大量细节,或者说相当数量分层级的细节来说,这样算法的复杂度是很高的。
所以有池化(pooling)。即缩小特征图(Feature Map)

  • 有最大池化:选择被扫描区域内的最大值
  • 和平均池化:取被扫描区域内的平均值 等池化方式

在处理边缘时的操作称为(Padding)
如果对图像采用最大池化,则在边缘补零来提取边缘特征
池化要求一定要保留原特征图的特征
卷积计算中的一个基本流程为:卷积,ReLU(修正线性单元),池化(下采样)
然后把得到的最简单的特征图们展开得到一条特征数组(?)
然后就是全链接的操作,对数组按目标图的数组权值操作得到一个判断是否为目标的概率数。
用大数据修正卷积核和全链接的行为叫机器学习
然后用反向传播(backpropagation)的算法不断修正用来处理特征数组的权链接。
得到越来越令人满意的网络。
所以甚至一开始的卷积核和权链接是随机的,只要给出的数据和反馈足够多仍然可以得到正确的算法网络

视频链接:

https://www.bilibili.com/video/BV1sb411P7pQ?from=search&seid=16008050362630917535

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值