tensorflow卷积神经网络详解(1)

定义模型,卷积层

def conv2d(x, W, b, strides = 1)
    """
    生成卷积层(ReLU)
    :param x:输入
    :param W:权值
    :param b:偏置
    :param strides:滑动步幅
    :return:
    """
    x = tf.nn.conv2d(x, W, strides = [1, strides, strides, 1], padding='SAME') #卷积层,输入x的权重为W, strides滑动步幅,边界不足时用0填充
    x = tf.nn.bias_add(x,b) #添加偏置b
    return tf.nn.relu(x)    #激活函数为ReLU

注意程序的开头需要导入tensorflow包:

import tensorflow as tf

其中tf.nn.conv2d是tensorflow包中的二维卷积函数,tf.nn.bias_add是对x添加偏置的函数,而tf.nn.relu则是激活函数。由此可见,我们自定义函数conv2d,将加权、偏置和经过激活函数集成到了一起,当构建网络的时候,只需要将它作为模块垒在一起变可以了。

tf.nn.conv2d中的strides = [1, strides, strides, 1],这是它的固定用法,即前后两个1是固定的,我们能修改的步幅只有中间两个数。

padding = 'SAME'是针对卷积而言的,因为卷积核具有一定的尺寸,那势必会带来卷积时边界的处理问题,'SAME'模式下,图像的边缘会添加‘0’值,添加的多少与卷积核的大小有关系。

当filter的中心(K)与image的边角重合时,开始做卷积运算。注意:这里的same还有一个意思,卷积之后输出的feature map尺寸保持不变(相对于输入图片)。当然,same模式不代表完全输入输出尺寸一样,也跟卷积核的步长有关系。same模式也是最常见的模式,因为这种模式可以在前向传播的过程中让特征图的大小保持不变,调参师不需要精准计算其尺寸变化(因为尺寸根本就没变化)。

 还有一种模式是“valid”,该模式下,当filter全部在image里面的时候,进行卷积运算,可见filter的移动范围较same更小了。

 tensorflow中只有两种padding方法,如果padding设置为SAME,则说明输入图片大小和输出图片大小是一致的,如果是VALID则图片经过滤波器后可能会变小。

假设:

输入:W*W

Filter:F*F

步幅:S

输出: N*N

则在valid模式下

N = W/S

在same模式下:

N = (W-F+1)/S

下面是池化层,池化层也被称之为下采样层,经常接在卷积层后面,其主要作用有:

1、降低数据维度,并保留有效信息;

2、一定程度上避免过拟合。

ef maxpool2d(x, k=2):
    """
    生成最大池化层
    :param x: 输入
    :param k: 窗口及步幅大小
    :return:
    """
    return tf.nn.max_pool(x, ksize=[1, k, k, 1], strides=[1, k, k, 1], padding='SAME')  # 最大池化层,ksize窗口大小,strides滑动步幅

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

nwsuaf_huasir

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值