【拔刀吧 TensorFlow】TensorFlow学习笔记九——何为卷积神经网络(二)

继续CNN之旅。

我们上一篇说到,不同的滤波器得到的特征图也不同。

而在CNN中,我们先自己指定滤波器的个数、大小和网络架构等参数,然后CNN可以在训练过程中学习最合适的滤波器的值。使用的滤波器越多,我们提取到的图像特征就越多,网络在未知图像上的识别模式也就越好。

特征图的大小,又有三个参数来控制,我们要在做卷积操作前就确定它们,分别是:1.深度(Depth)2.步长(Stride)3.零填充(Zero-padding)。

1.先说深度:简单来说就是每使用一个滤波器就能得到一个特征图,比如我们使用了3个滤波器,得到3个特征图,此时特征图深度就是3。


2.第二个是步长:就是每次移动滤波器的像素数,步长为1每次移动一个像素;步长为2,每次移动两个像素……以此类推。步长越大,得到的特征图越小。

3.最后一个概念是零填充:这里按我的理解来说就是手动设置输入图的大小,比如我们原始图像在我们设定了某个大小的滤波器后,不能按照预定步长卷积,那么我们就在图像边缘用0进行填充,把它变大。 

使用零填充的图像叫做泛卷积,未使用零填充的图像叫做严格卷积(narrow convolution)。

Relu(略)

这里的相关内容在《简介神经网络》有提及,不再赘述。

Relu的直观理解使用下图。


它将特征图中所有的负值变为了正值,也就是对特征图进行了矫正(Rectified)。

【这里引入一个自己的开始的误区,刚开始说灰度图像像素值介于0~255之间,怎么会有负值?后来发现这里说的是特征图,而我们使用滤波器得到特征图,滤波器会有负值,因此……对吧?】

原作者说:Other non linear functions such as tanh or sigmoid can also be used instead of ReLU, but ReLU has been found to perform better in most situations.  就是相比于tanh、sigmoid函数,ReLU最好用啦。

池化操作

空间池化(Spatial Pooling),亦称下采样或者亚采样。可以在保存重要信息的前提下用来降低特征图

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值