卷积神经网络(CNN)

一.边缘检测

1.垂直边缘检测

10-1
10-1
10

-1

 

 

 

 

2.水平边缘检测

111
000
-1-1-1

 

 

 

 

3.更多边缘检测滤波器

Sobel filter
10-1
20-2
10-1

       

 

 

 

Scharr filter
30-3
100-10
30-3

   

 

 

 

二.填充(Padding)

1.若没有padding,则若原图像为n*n,用f*f大小的核做卷积,则输出图像为(n-f+1)*(n-f+1)

   若padding=p,则若原图像为n*n,用f*f大小的核做卷积,则输出图像为(n+2*p-f+1)*(n+2*p-f+1)

2.填充分类

Valid convolutions:无填充

Same convolutions:输出图像与原图像大小相等,此时n+2*p-f+1=n,从而得到p=(f-1)/2。

三.卷积步长(Stride)

原图像:n*n          padding=p       stride=s       卷积核=f*f      

输出图像大小为:(\frac{n+2\times p-f}{s}+1)\times (\frac{n+2\times p-f}{s}+1)

注:若不是整数则向下取整

四.立体卷积

五.单层卷积网络

layer l is a convolution layer:

f^{[l]}=filter size     p^{[l]}=padding       s^{[l]}=stride

Input:n^{[l-1]}_{H}\times n^{[l-1]}_{W}\times n^{[l-1]}_{C}

Output:z^{[l]}\rightarrow n^{[l]}_{H}\times n^{[l]}_{W}\times n^{[l]}_{C}

n^{[l]}_{H}=\left \lfloor \frac{n^{[l-1]}_{H}+2p^{[l]}-f^{[l]}}{s^{[l]}} +1\right \rfloor

n^{[l]}_{W}=\left \lfloor \frac{n^{[l-1]}_{W}+2p^{[l]}-f^{[l]}}{s^{[l]}} +1\right \rfloor

n^{[l]}_{C}=number \ of \ filters

Each \ filter \ is:f^{[l]}\times f^{[l]}\times n^{[l-1]}_{C}

Activations:a^{[l]}=g(z^{[l]})\rightarrow n^{[l]}_{H}\times n^{[l]}_{W}\times n^{[l]}_{C}

mini-batch \ decent:A^{[l]}\rightarrow m\times n^{[l]}_{H}\times n^{[l]}_{W}\times n^{[l]}_{C}

Weights:f^{[l]}\times f^{[l]}\times n^{[l-1]}_{C}\times n^{[l]}_{C}

bias:(1,1,1,n^{[l]}_{C})

六.池化层(Pooling layers)

1.分类

  • Max pooling

  • Average pooling

 2.作用

对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度,加快计算速度;一方面进行特征压缩,提取主要特征;也可以在一定程度上防止过拟合。

七.全连接层(Fully connected layer)

1.概述

全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。

2.实现

八.列表说明

 

 Activation shapeActivation size#parameters
Input:(32,32,3)30720
CONV1(f=5,s=1)(28,28,8)6272208
POOL1(14,14,8)15680
CONV2(f=5,s=1)(10,10,16)1600416
POOL2(5,5,16)4000
FC3(120,1)12048001
FC4(84,1)8410081
Softmax(10,1)10841

 

九.为什么使用卷积

1.参数共享(Parameters sharing)

A feature detector(such as a vertical edge detector) that's useful in one part of the image is probably useful in another part of the image.

2.稀疏连接(Sparsity of connections)

In each layer,each output value depends only on a small number of imputs

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值