tf.nn.conv2d 和tf.contrib.slim.conv2d的区别

有代码用到卷积层是tf.nn.conv2d 或者tf.contrib,slim.conv2d. 这两个函数调用的卷积层是否一致,查看源码如下:

conv2d(input, 
        filter,
        strides,
        padding,
        use_cudnn_on_gpu=None,
        data_format=None,
        name = None)

input:需要做卷积的输入图像,它要求是一个Tensor,具有[batch_size, in_height, in_width, in_channels]这样的shape,具体含义是[训练时一个batch的图片数量,图片高度,图片宽度,图像通道数], 注意这是一个4维的Tensor,要求数据类型维float32 和float64.

filter:用于指定CNN中的卷积核,它要求是一个Tensor,具有[filter_height, filter_width, in_channels, out_channels]这样的shape,具体含义是[卷积核的高度,卷积核的宽度,图像通道数,卷积核个数],要求类型与input相同,

strides:为卷积时在图像每一维的步长那个,这时一个一维的向量,长度为4, 对应的是在input的4个维度上的步长。

padding:是string类型的变量,只能是“SAME”, “VALID”其中之一,这个值决定了不同的卷积方式, SAME代表卷积核可以停留图像边缘。

而对于tf.contrib.slim.conv2d,其函数定义如下:

convolution(inputs, 
        num_outputs,
        kernel_size),
        stride=1,
        padding = 'SAME',
        data_format=None,
        rate = 1,
        activation_fn=nn.relu,
        normalizer_fn = None,
        normalizer_params=None,
        weights_initializer = initializer.xavier_initializer(),
        weights_regularizer = None,
        biases_initializer=init_ops.zeros_initializer(),
        biases_regularizer = None,
        reuse = None,
        variables_collections=None,
        outputs_collections=None,
        trainable=True, 
        scope=None):

inputs同样是指需要做卷积的输入图像
num_outputs指定卷积核的个数(就是filter的个数)
kernel_size用于指定卷积核的维度(卷积核的宽度,卷积核的高度)
stride为卷积时在图像每一维的步长
padding为padding的方式选择,VALID或者SAME
data_format是用于指定输入的input的格式
rate这个参数不是太理解,而且tf.nn.conv2d中也没有,对于使用atrous convolution的膨胀率(不是太懂这个atrous convolution)
activation_fn用于激活函数的指定,默认的为ReLU函数
normalizer_fn用于指定正则化函数
normalizer_params用于指定正则化函数的参数
weights_initializer用于指定权重的初始化程序
weights_regularizer为权重可选的正则化程序
biases_initializer用于指定biase的初始化程序
biases_regularizer: biases可选的正则化程序
reuse指定是否共享层或者和变量
variable_collections指定所有变量的集合列表或者字典
outputs_collections指定输出被添加的集合
trainable:卷积层的参数是否可被训练
scope:共享变量所指的variable_scope

 

 

为了缓解重复这些代码, TF-Slim在更抽象的神经网络层的层面上提供了大量方便使用的操作符, 比如,将上面的代码和TF-Slim响应的代码调用进行比较:

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值