tf.nn.conv2d (input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)
参数:
- input:输入的要做卷积的图片,要求为一个张量,shape为 [ batch, in_height, in_weight, in_channel ],其中batch为图片的数量,in_height 为图片高度,in_weight 为图片宽度,in_channel 为图片的通道数,灰度图该值为1,彩色图为3。
- filter:卷积核,要求也是一个张量,shape为 [ filter_height, filter_weight, in_channel, out_channels ],其中 filter_height 为卷积核高度,filter_weight 为卷积核宽度,in_channel 是图像通道数 ,和 input 的 in_channel 要保持一致,out_channel 是卷积核数量。
- strides:卷积时在图像每一维的步长,这是一个一维的向量,[ 1, strides, strides, 1],第一位和最后一位固定必须是1
- padding:string类型,值为“SAME” 和 “VALID”,表示的是卷积的形式,是否考虑边界。"SAME"是考虑边界,不足的时候用0去填充周围,"VALID"则不考虑
- use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true
实例使用:
# 第一层卷积层,64个卷积核,大小为5*5,3通道(RGB三种颜色通道) # 1).定义权重 weight1 = variable_with_weight_losses(shape=[5,5,3,64], stddev=0.05, wl=0.0) # 2).卷积操作 kernel1 = tf.nn.conv2d(image_holder, filter=weight1, strides=[1, 1, 1, 1], padding='SAME') # 3).定义偏差 bias1 = tf.Variable(tf.constant(0.0, shape=[64])) # 4).relu激活函数 conv1 = tf.nn.relu(tf.nn.bias_add(kernel1, bias1)) # 5).最大池化 pool1 = tf.nn.max_pool(conv1, ksize=[1, 3, 3, 1], strides=[1, 2, 2, 1], padding='SAME') # 6.lrn: 局部响应归一化,可防止过拟合,原理是生物学上的‘侧抑制’,(通俗来讲就是增强强的地方,削弱弱的地方) # pool1表示输入数据,4表示使用前后几层进行归一化操作,bias表示偏移量,alpha和beta表示系数 norm1 = tf.nn.lrn(pool1, 4, bias=1.0, alpha=0.001/9.0, beta=0.75)
参考博客: