深度学习-卷积理解

一.深度卷积神经网络学习笔记(一):

1.这篇文章以贾清扬的ppt说明了卷积的实质,更说明了卷积输出图像大小应该为:

假设输入图像尺寸为W,卷积核尺寸为F,步幅(stride)为S(卷积核移动的步幅),Padding使用P(用于填充输入图像的边界,一般填充0),那么经过该卷积层后输出的图像尺寸为(W-F+2P)/S+1。

2.它写出为什么会用padding?卷积核大小该如何确定?stride该如何确定?

二. Caffe的卷积原理:

1.这篇文章把卷积的过程写得非常形象化,用简单的例子讲明白了卷积过程在caffe写代码的时候是怎么实现的。

2.它还写了卷积后输出图像大小N为:

N=[((image_h + 2*pad_h – kernel_h)/stride_h)+ 1]*[((image_w +2*pad_w – kernel_w)/stride_w) + 1] (结果向上取整)

    image_h:输入图像的高度

    image_w:输入图像的宽度

    pad_h:在输入图像的高度方向两边各增加pad_h个单位长度(因为有两边,所以乘以2)

    pad_w:在输入图像的宽度方向两边各增加pad_w个单位长度(因为有两边,所以乘以2)

    kernel_h:卷积核的高度

    kernel_w:卷积核的宽度

    stride_h:高度方向的滑动步长;

    stride_w:宽度方向的滑动步长。

    因此,N为输出图像大小的长宽乘积,也是卷积核在输入图像上滑动可截取的最大特征数。

    K=k*k,表示利用卷积核大小的框在输入图像上滑动所截取的数据大小,与卷积核大小一样大。

上面是一般情况下的计算,在tensorflow中根据padding时参数选择不同,卷积输出图像的计算方式也可能不同,见:Tensorflow中卷积的padding操作

3.池化大小的计算与卷积类似:

N=[((image_h + 2*pad_h – kernel_h)/stride_h)+ 1]*[((image_w +2*pad_w – kernel_w)/stride_w )+ 1] (结果向上取整)

    image_h:输入图像的高度

    image_w:输入图像的宽度

    pad_h:在输入图像的高度方向两边各增加pad_h个单位长度(因为有两边,所以乘以2)

    pad_w:在输入图像的宽度方向两边各增加pad_w个单位长度(因为有两边,所以乘以2)

    kernel_h:池化区域的高度

    kernel_w:区域的宽度

    stride_h:高度方向的滑动步长;

    stride_w:宽度方向的滑动步长。

    因此,N为输出图像大小的长宽乘积,也是卷积核在输入图像上滑动可截取的最大特征数。

附tensorflow卷积计算:

先定义几个参数

输入图片大小 W×W
Filter大小 F×F
步长 S
padding的像素数 P

于是我们可以得出:N = (W − F + 2P )/S+1
输出图片大小为 N×N

参考http://blog.csdn.net/fireflychh/article/details/73743643

三.卷积时参数的理解

卷积运算时总是有一个参数需要选择,matlab中是shape,python中是border_mode

关于shape选项的说明;

当shape=full时,返回全部二维卷积结果,即返回c的大小为(ma+mb-1)x(na+nb-1)
shape=same时,返回与a同样大小的卷积中心部分
shape=valid时,不考虑边界补零,即只要有边界补出的零参与运算的都舍去,返回c的大小为(ma-mb+1)x(na-nb+1)

原文链接:https://www.cnblogs.com/dmzhuo/p/6151434.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值