CNN (卷积神经网络)

CNN

CNN简介

卷积神经网络(Convolutional Neural Networks,简称CNN)。

卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC。

初识卷积

首先,我们去学习卷积层的模型原理,在学习卷积层的模型原理前,我们需要了解什么是卷积,以及CNN中的卷积是什么样子的。

大家学习数学时都有学过卷积的知识,微积分中卷积的表达式为:

S(t)=x(ta)w(a)da S ( t ) = ∫ x ( t − a ) w ( a ) d a

离散形式是:
s(t)=ax(ta)w(a) s ( t ) = ∑ a x ( t − a ) w ( a )

这个式子如果用矩阵表示可以为:
s(t)=(XW)(t) s ( t ) = ( X ∗ W ) ( t )

其中星号表示卷积。

如果是二维的卷积,则表示式为:

s(i,j)=(XW)(i,j)=mnx(im,jn)w(m,n) s ( i , j ) = ( X ∗ W ) ( i , j ) = ∑ m ∑ n x ( i − m , j − n ) w ( m , n )

在CNN中,虽然我们也是说卷积,但是我们的卷积公式和严格意义数学中的定义稍有不同,比如对于二维的卷积,定义为:
s(i,j)=(XW)(i,j)=mnx(i+m,j+n)w(m,n) s ( i , j ) = ( X ∗ W ) ( i , j ) = ∑ m ∑ n x ( i + m , j + n ) w ( m , n )

这个式子虽然从数学上讲不是严格意义上的卷积,但是大牛们都这么叫了,那么我们也跟着这么叫了。后面讲的 CNN C N N 的卷积都是指的上面的最后一个式子。

其中,我们叫 W W 为我们的卷积核,而X则为我们的输入。如果X是一个二维输入的矩阵,而W也是一个二维的矩阵。但是如果 X X 是多维张量,那么W也是一个多维的张量。

CNN中的卷积层

有了卷积的基本知识,我们现在来看看CNN中的卷积,假如是对图像卷积,如上面的卷积公式(5),其实就是对图像的不同局部的矩阵和卷积核矩阵各个位置的元素相乘,然后相加得到。

s(i,j)=(XW)(i,j)=mnx(i+m,j+n)w(m,n) s ( i , j ) = ( X ∗ W ) ( i , j ) = ∑ m ∑ n x ( i + m , j + n ) w ( m , n )

这里写图片描述

如上面卷积公式所示,卷积核 Wmn W m n m=3,n=3 m = 3 , n = 3 ,图像 X X

X=[1110001110001110011001100]

W=101010101 W = [ 1 0 1 0 1 0 1 0 1 ]

s(0,0)=m=02n=02x(0+m,0+n)w(m,n)=4s(0,1)=m=02n=02x(0+m,1+n)w(m,n)=3s(0,2)=m=02n=02x(0+m,2+n)w(m,n)=4s(1,0)=m=02n=02x(1+m,0+n)w(m,n)=2............................................ s ( 0 , 0 ) = ∑ m = 0 2 ∑ n = 0 2 x ( 0 + m , 0 + n ) w ( m , n ) = 4 s ( 0 , 1 ) = ∑ m = 0 2 ∑ n = 0 2 x ( 0 + m , 1 + n ) w ( m , n ) = 3 s ( 0 , 2 ) = ∑ m = 0 2 ∑ n = 0 2 x ( 0 + m , 2 + n ) w ( m , n ) = 4 s ( 1 , 0 ) = ∑ m = 0 2 ∑ n = 0 2 x ( 1 + m , 0 + n ) w ( m , n ) = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

S=422343434 S = [ 4 3 4 2 4 3 2 3 4 ]

即上面动态图显示的结果。

Padding

卷积核在提取特征映射时的动作称为 padding,其有两种方式,即 SAME 和 VALID。

由于移动步长(Stride)不一定能整除整张图的像素宽度,我们把不越过边缘取样称为 Valid Padding,输出的面积小于输入图像的像素宽度;越过边缘取样称为 Same Padding,输出的面积和输入图像的像素宽度一致。

  • Valid: no padding
  • Same: Pad so that output size is the same as the input size (when stride == 1)

例如: (nn) image,(ff) filter,padding p ( n ∗ n )   i m a g e , ( f ∗ f )   f i l t e r , p a d d i n g   p

if f = 3, then n + 2p - f + 1 = n , so p = 1

if f = 5, then n + 2p - f + 1 = n, so p = 2

if f = 5, then n + 2p -f + 1 = n , so p = 3

stride

stride(步长),即卷积每次滑动的长度。(如果不指定stride,默认为1)

这里写图片描述

这里写图片描述

padding(p=1),stride(s=2) 的两个卷积核(Filter W0, W1)的动画效果如下:

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

卷积层通过一个个卷积核(kenel)或者过滤器(filter),TensorFlow中使用filter的概念,在原始图像上平移来提取特征,每一个特征就是一个特征映射, 每一个特征映射对应一个特征平面(不管输入图像和卷积核是不是立体的,都会输出特征平面),即一个卷积核的输出是一个特征平面,特征平面中的每一个点是一个神经元,特征平面中的每一个点共享权重(即使用同一个卷积核),有多少卷积核,就输出多少特征平面。一个卷积核映射一个特征平面。

过滤器可以将当前层神经网络上的一个子节点矩阵转化为下一层神经网络上的一个单位节点矩阵。单位节点矩阵指的是一个长和宽都为1,但深度不限的节点矩阵。

在一个卷积层中,过滤器所处理的节点矩阵的长和宽都是由人工指定的,这个节点矩阵的尺寸也被称为过滤器的尺寸。常用的过滤器尺寸有3*35*5。因为过滤器处理的矩阵深度和当前层神经网络节点矩阵的深度是一致的,所有虽然节点矩阵是三维的,但过滤器的尺寸只需要指定两个维度。过滤器中另外一个需要人工指定的设置是处理得到的单位节点矩阵的深度,这个设置称为过滤器的深度。注意过滤器的尺寸指的是一个过滤器输入节点矩阵的大小,而深度指的是输出单位节点矩阵的深度。

局部连接(Sparse Connectivity)和权值共享(Shared Weights)

下图是一个很经典的图示,左边是全连接,右边是局部连接。

这里写图片描述

对于一个1000 × 1000的输入图像而言,如果下一个隐藏层的神经元数目为10^6个,采用全连接则有1000 × 1000 × 10^6 = 10^12个权值参数,如此数目巨大的参数几乎难以训练;而采用局部连接,隐藏层的每个神经元仅与图像中10 × 10的局部图像相连接,那么此时的权值参数数量为10 × 10 × 10^6 = 10^8,将直接减少4个数量级。

尽管减少了几个数量级,但参数数量依然较多。能不能再进一步减少呢?能!方法就是权值共享。具体做法是,在局部连接中隐藏层的每一个神经元连接的是一个10 × 10的局部图像,因此有10 × 10个权值参数,将这10 × 10个权值参数共享给剩下的神经元,也就是说隐藏层中10^6个神经元的权值参数相同,那么此时不管隐藏层神经元的数目是多少,需要训练的参数就是这 10 × 10个权值参数(也就是卷积核(也称滤波器)的大小),如下图。

这里写图片描述

这大概就是CNN的一个神奇之处,尽管只有这么少的参数,依旧有出色的性能。但是,这样仅提取了图像的一种特征,如果要多提取出一些特征,可以增加多个卷积核,不同的卷积核能够得到图像的不同映射下的特征,称之为Feature Map。如果有100个卷积核,最终的权值参数也仅为100 × 100 = 10^4个而已。另外,偏置参数也是共享的,同一种卷积核共享一个。

CNN中的池化层

池化层可以非常有效地缩小矩阵的尺寸,从而减少最后全连接层中的参数。使用池化层既可以加快计算速度也有防止过拟合问题的作用。

池化层:对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征,如下:

这里写图片描述

池化层最常见的包括最大值池化(max pooling)和平均值池化(average pooling)

这里写图片描述

这里写图片描述

CNN 池化层不会改变网络的深度 nc n c

CNN中的全连接层

全连接层:连接所有的特征,将输出值送给分类器(如softmax分类器)。

总的一个结构大致如下:

这里写图片描述

另外:CNN网络中前几层的卷积层参数量占比小,计算量占比大;而后面的全连接层正好相反,大部分CNN网络都具有这个特点。因此我们在进行计算加速优化时,重点放在卷积层;进行参数优化、权值裁剪时,重点放在全连接层。

计算机是怎么存储图片的

为了更好的理解计算机对图片的存储,我找了一个非常简单的图片,是一个385*385(像素)的jpg格式的图片,如图1所示,这个图片就是一个白色为底色,数字为黑色的数字“2”,也就是说,图片中只涉及两种颜色——黑与白(实际上并不是,因为图片在显示器中显示是一个像素一个像素的,黑白相间的地方其实并不是纯黑或者纯白的,将图片经过稍后描述的处理后也可以看出来,不过简单起见,我们就当它是黑白两色的)。


这里写图片描述
图1

可以使用scipy包中的imread函数将图片转换为数值型矩阵

from scipy.misc import imreadimport pandas as pd
img = imread('2.jpg')
print(img.shape)
img_df=pd.DataFrame(img)
img_df.to_csv('2.csv')

上面的代码不用太过研究,能实现这个过程的方法很多。其实图片在计算机中就是数字,385*385=148225,图片中有148225个数字,每个数字其实就是该像素的颜色对应的数值(如白色是255),那么我们来看一下图片转换成为的矩阵是什么样子,如图2所示(我把csv按比例缩放了一下,看的比较清楚)。

这里写图片描述
图2

是不是惊艳到了!!!原来这个2在计算机中是这么存储的,好,我把局部放大一下,如图3所示,图3这个区域放大了,所以你可能看不太出来这是个啥,其实就是图4中红色圆圈的部分。

这里写图片描述
图3

这里写图片描述
图4

现在你可能明白了,其实每个图片都由若干像素点构成,每个像素点存储了该位置的颜色,其实还隐藏存储了另一个信息,就是位置。每一个像素点都有一对索引元组,例如(1,1)就是第一行第一列的像素点,如果写作(1,1,255),就是说第一行第一列的像素点是黑色,以此类推,也就是这样一个矩阵就完整的记录着图片的所有信息。

参考链接

技术向:一文读懂卷积神经网络CNN

卷积神经网络(CNN)学习笔记1:基础入门

卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习模型,主要用于图像识别和计算机视觉任务。它通过卷积层、池化层和全连接层等组件来提取图像的特征,并进行分类或回归等任务。 CNN的基本原理是通过卷积操作来提取图像的局部特征,然后通过池化操作来减小特征图的尺寸和参数数量。卷积层使用一组可学习的滤波器(也称为卷积核)对输入图像进行卷积操作,从而得到一系列特征图。池化层则通过对特征图进行降采样,保留主要特征并减少计算量。最后,通过全连接层将提取到的特征映射到输出类别。 CNN的优势在于它能够自动学习图像的特征表示,而无需手动设计特征。此外,CNN还具有平移不变性和局部连接性等特点,使其在处理图像数据时表现出色。 范例:<<引用:一般的卷积神经网络,输入图像x,输出卷积后的特征F(x),一次性抽出所有的信息,梯度消失会出现,Res网络就说只学习残差即可。 [^1]。引用:VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠33的小型卷积核和22的最大池化层,VGGNet成功地构筑了16~19层深的卷积神经网络。VGGNet相比之前state-of-the-art的网络结构,错误率大幅下降,并取得了ILSVRC 2014比赛分类项目的第2名和定位项目的第1名。 。引用:CNN的基本原理是通过卷积操作来提取图像的局部特征,然后通过池化操作来减小特征图的尺寸和参数数量。卷积层使用一组可学习的滤波器(也称为卷积核)对输入图像进行卷积操作,从而得到一系列特征图。池化层则通过对特征图进行降采样,保留主要特征并减少计算量。最后,通过全连接层将提取到的特征映射到输出类别。[^3]。 CNN是一种深度学习模型,主要用于图像识别和计算机视觉任务[^3]。它通过卷积层、池化层和全连接层等组件来提取图像的特征,并进行分类或回归等任务[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据AI

你的鼓励将是我创作的最大动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值