卷积神经网络(入门)

一、卷积神经网络简介

通过输入层输入,然后根据几个卷积层就重复下面步骤几次,最后输出层输出。

卷积计算中的一个基本流程为:卷积-->ReLU(修正线性单元)-->池化(下采样)

然后进行全连接,根据权重计算概率,判断。

二、“详解”

1.卷积计算

将图像拆分成对应的特征点,被称为卷积核

然后查看被识别图像有无对应的卷积核来确认其是否为目标物体。

目标图像经过 卷积核 得出的一个二维图为特征图

2.激活函数

常用的:Relu:if x<0: y=0 else y=x

将卷积计算过的负数特征值全部转为0,不会改变特征。

3.池化

对于一个有大量细节(即特征),或者说相当数量分层级的细节来说,算法的复杂度很高。

所以有池化(层)(pooling)。池化就是将特征矩阵缩小,即缩小特征图(Feature Map)

两种池化方法:

1.最大池化:选择被扫描区域内的最大值作为Feature Map的一个特征值
2.平均池化:取被扫描区域内的平均值作为Feature Map的一个特征值 

处理边缘时的操作称为(Padding)

如果对图像采用最大池化,则在边缘补零来提取边缘特征

池化要求一定要保留原特征图的特征

4.全链接

对数组按目标图的数组权值操作得到一个判断是否为目标的概率数。利用大量数据训练进行机器学习来修正卷积核和全链接的行为。然后用反向传播(backpropagation)的算法不断修正用来处理特征数组的全连接,最后得到越来越精准的网络。

一开始的卷积核和全连接是随机的,人为指定的,只要喂给网络的数据和反馈足够多,最终可以得到一个比较好的算法网络。

卷积神经网络中常见英文解释

Filtering: The math behind the match 过滤:比对背后的数学

1. Line up the feature and the image patch.特征和图像补订对齐。

2. Multiply each image pixel by the corresponding feature pixel.将每个图像像素乘以相应的特征像素。

3. Add them up. 相加

4. Divide by the total number of pixels in the feature.除以特征中的总像素数(此处指碎片中的像素数量)。--->得到最终的像素值

Pooling: Shrinking the image stack:池化:缩小图像堆栈 

1. Pick a window size (usually 2 or 3).选个2X2的window

2.Pick a stride (usually 2)将窗口向右移动一个步长2

3.Walk your window across your filtered images. 滑动窗口过滤图片

4. From each window, take the maximum value.依次记录最大值

完成这个步骤之后,我们得到一个相似的,但是更小的图。依然可以看到最大值组成的特征都在。

以上是看完视频的总结。

强推视频(太牛了!):大白话讲解卷积神经网络工作原理_哔哩哔哩_bilibili

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值