tensorflowCNN实现

stddev是方差。上图是定义参数。

卷积和池化的操作(向前传播):reshape是预处理转化成4维,第一个是batchsize大小,h,w,c(通道)。-1是让tensorflow推断是多少。

conv2d卷积参数:

  • 卷积(Convolution)
  1. conv2d: 一般卷积。函数原型:

    tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)

  2. depthwise_conv2d:深度卷积。

    tf.nn.depthwise_conv2d(input, filter, strides, padding, name=None)

  3. separable_conv2d: 深度可分离卷积。

    tf.nn.separable_conv2d(input, depthwise_filter, pointwise_filter, strides, padding, name=None)

上篇关于Mnist,我们使用的是conv2d,下面介绍一下这个函数。

第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,具体含义是[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数],注意这是一个4维的Tensor,要求类型为float32和float64其中之一。

第二个参数filter:相当于CNN中的卷积核,它要求是一个Tensor,具有[filter_height, filter_width, in_channels, out_channels]这样的shape,具体含义是[卷积核的高度,卷积核的宽度,图像通道数,卷积核个数],要求类型与参数input相同,有一个地方需要注意,第三维in_channels,就是参数input的第四维。

第三个参数strides:卷积时在图像每一维的步长,这是一个一维的向量,长度为4,通常为[1,×,×,1],表示只在输入图中做卷积,而跟channel和batch无关,通常×是相同的。

第四个参数padding:string类型的量,只能是”SAME”,”VALID”其中之一,这个值决定了不同的卷积方式,“SAME”表示有padding的卷积,尤其在stride=[1,1,1,1]的情况下,输入和输出的tensor维度一样,这也正是在Mnist中采用的,这种也称为HALF padding,因为p=[k/2],向下取整。而“VALID”表示无padding,不在原始输入上加任何padding,直接卷积。

第五个参数use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true。

卷积的结果就是返回一个Tensor,这个输出,就是我们常说的feature map,feature map的维度取决于卷积和池化层,这和Caffe是类似的,那就是[batch,高度,宽度,通道数=卷积核个数]。

  • 池化Pooling
  1. avg_pool:平均池化。函数原型:

    tf.nn.avg_pool(value, ksize, strides, padding, name=None)

  2. max_pool:最大池化。函数原型: 

    tf.nn.max_pool(value, ksize, strides, padding, name=None)

  3. max_pool_with_argmax:计算池化区域中元素的最大值和该最大值所在的位置。函数原型:

    tf.nn.max_pool_with_argmax(input, ksize, strides, padding, Targmax=None, name=None)

Mnist中使用的是max_pool方式,其和卷积类似。

第一个参数value:池化的输入,池化层通常接在卷积层后面,所以输入通常是feature map,依然是[batch, height, width, channels]这样的shape。

第二个参数ksize:池化窗口的大小,取一个四维向量,一般是[1, height, width, 1],同理不在batch和channels上做池化,所以这两个维度设为了1,通常height=width。

第三个参数strides:和卷积类似,窗口在每一个维度上滑动的步长,一般也是[1, stride,stride, 1],步长为2,即为减半。

第四个参数padding:和卷积类似,可以取’VALID’ 或者’SAME’。

返回一个Tensor,类型不变,仍是feature map。其shape也是[batch, height, width, channels]这种形式。

dropout是随机杀死节点的一个函数。

Dropout说的简单一点就是:我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征

cost是损失函数,optm是优化器。

Batch Size定义:一次训练所选取的样本数。 
Batch Size的大小影响模型的优化程度和速度。同时其直接影响到GPU内存的使用情况,假如你GPU内存不大,该数值最好设置小一点。

EPOCHS

  当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一个 epoch。

  然而,当一个 epoch 对于计算机而言太庞大的时候,就需要把它分成多个小块。

  为什么要使用多于一个 epoch?

  我知道这刚开始听起来会很奇怪,在神经网络中传递完整的数据集一次是不够的,而且我们需要将完整的数据集在同样的神经网络中传递多次。但是请记住,我们使用的是有限的数据集,并且我们使用一个迭代过程即梯度下降,优化学习过程和图示。因此仅仅更新权重一次或者说使用一个 epoch 是不够的。

  

 一文看懂神经网络之Epoch、Batch Size和迭代

  随着 epoch 数量增加,神经网络中的权重的更新次数也增加,曲线从欠拟合变得过拟合。

  那么,几个 epoch 才是合适的呢?

  不幸的是,这个问题并没有正确的答案。对于不同的数据集,答案是不一样的。但是数据的多样性会影响合适的 epoch 的数量。比如,只有黑色的猫的数据集,以及有各种颜色的猫的数据集。

BATCH 是什么?

  在不能将数据一次性通过神经网络的时候,就需要将数据集分成几个 batch。

  正如将这篇文章分成几个部分,如介绍、梯度下降、Epoch、Batch size 和迭代,从而使文章更容易阅读和理解。

  迭代

  理解迭代,只需要知道乘法表或者一个计算器就可以了。迭代是 batch 需要完成一个 epoch 的次数。记住:在一个 epoch 中,batch 数和迭代数是相等的。

  比如对于一个有 2000 个训练样本的数据集。将 2000 个样本分成大小为 500 的 batch,那么完成一个 epoch 需要 4 个 iteration。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值