TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程。TensorFlow是将复杂的数据结构传输至人工智能神经网中进行分析和处理过程的系统。
TensorFlow可被用于语音识别或图像识别等多项机器深度学习领域,对2011年开发的深度学习基础架构DistBelief进行了各方面的改进,它可在小到一部智能手机、大到数千台数据中心服务器的各种设备上运行。TensorFlow将完全开源,任何人都可以用。
原生接口文章
- 【Tensorflow】tf.placeholder函数
- 【TensorFlow】tf.nn.conv2d是怎样实现卷积的
- 【TensorFlow】tf.nn.max_pool实现池化操作
- 【Tensorflow】tf.nn.relu函数
- 【Tensorflow】tf.reshape 函数
- 【Tensorflow】tf.nn.dropout函数
- 【Tensorflow】tf.argmax函数
- 【Tensorflow】tf.cast 类型转换 函数
- 【Tensorflow】tf.train.AdamOptimizer函数
- 【Tensorflow】tf.Graph()函数
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- 【Tensorflow】tf.dynamic_partition 函数 分拆数组
原生接口实例
- 【Tensorflow】实现简单的卷积神经网络CNN实际代码
- 【Tensorflow 实战】实现欧式距离
slim接口文章
- 【Tensorflow】tensorflow.contrib.slim 包
- 【Tensorflow slim】 slim.arg_scope的用法
- 【Tensorflow slim】slim.data包
- 【Tensorflow slim】slim evaluation 函数
- 【Tensorflow slim】slim layers包
- 【Tensorflow slim】slim learning包
- 【Tensorflow slim】slim losses包
- 【Tensorflow slim】slim nets包
- 【Tensorflow slim】slim variables包
- 【Tensorflow slim】slim metrics包
slim 实例
- 【Tensorflow slim 实战】写MobileNet
- 【Tensorflow slim 实战】写Inception-V4 Inception-ResNet-v2结构
kera 接口文章
- 【Tensorflow keras】Keras:基于Theano和TensorFlow的深度学习库
- 【Tensorflow keras】轻量级深度学习框架 Keras简介
tensorflow使用过程中的辅助接口或通过tensorflow实现的批量操作接口
- 将非RGB图片转换为RGB图片
- 【opencv】python3 将图片生成视频文件
- 【opencv】selective_search函数
=========================================================================
转自:http://blog.csdn.net/mao_xiao_feng/article/details/53444333
tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要
除去name参数用以指定该操作的name,与方法有关的一共五个参数
:
第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,具体含义是[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数],注意这是一个4维的Tensor,要求类型为float32和float64其中之一
第二个参数filter:相当于CNN中的卷积核,它要求是一个Tensor,具有
[filter_height, filter_width, in_channels, out_channels]这样的shape
,具体含义是
[卷积核的高度,卷积核的宽度,图像通道数,卷积核个数
],要求类型与参数input相同,有一个地方需要注意,第三维in_channels
,就是参数input的第四维
第三个参数strides:卷积时在图像每一维的步长,这是一个一维的向量,长度4
第四个参数padding:string类型的量,只能是"SAME","VALID"其中之一,这个值决定了不同的卷积方式(后面会介绍)就是VALID只能匹配内部像素;而SAME可以在图像外部补0,从而做到只要图像中的一个像素就可以和卷积核做卷积操作,而VALID不行
第五个参数:use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true
结果返回一个Tensor,这个输出,就是我们常说的feature map
那么TensorFlow的卷积具体是怎样实现的呢,用一些例子去解释它:
1.考虑一种最简单的情况,现在有一张3×3单通道的图像(对应的shape:[1,3,3,1]),用一个1×1的卷积核(对应的shape:[1,1,1,1]
)去做卷积,最后会得到一张3×3的feature map
2.增加图片的通道数,使用一张3×3五通道的图像(对应的shape:[1,3,3,5]),用一个1×1的卷积核(对应的shape:[1,1,1,1]
)去做卷积,仍然是一张3×3的feature map,这就相当于每一个像素点,卷积核都与该像素点的每一个通道做点积
- input = tf.Variable(tf.random_normal([1,3,3,5]))
- filter = tf.Variable(tf.random_normal([1,1,5,1]))
-
- op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')
3.把卷积核扩大,现在用3×3的卷积核做卷积,最后的输出是一个值,相当于情况2的feature map所有像素点的值求和
- input = tf.Variable(tf.random_normal([1,3,3,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,1]))
-
- op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')
4.使用更大的图片将
情况2
的图片扩大到5×5,仍然是3×3的卷积核,令步长为1,输出3×3的feature map
- input = tf.Variable(tf.random_normal([1,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,1]))
-
- op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')
注意我们可以把这种情况看成情况2和情况3的中间状态,卷积核以步长1滑动遍历全图,以下x表示的位置,表示卷积核停留的位置,每停留一个,输出feature map的一个像素
- .....
- .xxx.
- .xxx.
- .xxx.
- .....
5.上面我们一直令参数padding的值为‘VALID’,当其为‘SAME’时,表示卷积核可以停留在图像边缘,如下,输出5×5的feature map
- input = tf.Variable(tf.random_normal([1,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,1]))
-
- op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')
- xxxxx
- xxxxx
- xxxxx
- xxxxx
- xxxxx
6.如果卷积核有多个
- input = tf.Variable(tf.random_normal([1,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,7]))
-
- op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')
此时输出7张5×5的feature map
7.步长不为1的情况,文档里说了对于图片,因为只有两维,通常strides取[1,stride,stride,1]
- input = tf.Variable(tf.random_normal([1,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,7]))
-
- op = tf.nn.conv2d(input, filter, strides=[1, 2, 2, 1], padding='SAME')
此时,输出7张3×3的feature map
- x.x.x
- .....
- x.x.x
- .....
- x.x.x
8.如果batch值不为1,同时输入10张图
- input = tf.Variable(tf.random_normal([10,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,7]))
-
- op = tf.nn.conv2d(input, filter, strides=[1, 2, 2, 1], padding='SAME')
每张图,都有7张3×3的feature map,输出的shape就是[10,3,3,7]
最后,把程序总结一下:
- import tensorflow as tf
-
- input = tf.Variable(tf.random_normal([1,3,3,5]))
- filter = tf.Variable(tf.random_normal([1,1,5,1]))
-
- op2 = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')
-
- input = tf.Variable(tf.random_normal([1,3,3,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,1]))
-
- op3 = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')
-
- input = tf.Variable(tf.random_normal([1,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,1]))
-
- op4 = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='VALID')
-
- input = tf.Variable(tf.random_normal([1,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,1]))
-
- op5 = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')
-
- input = tf.Variable(tf.random_normal([1,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,7]))
-
- op6 = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding='SAME')
-
- input = tf.Variable(tf.random_normal([1,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,7]))
-
- op7 = tf.nn.conv2d(input, filter, strides=[1, 2, 2, 1], padding='SAME')
-
- input = tf.Variable(tf.random_normal([10,5,5,5]))
- filter = tf.Variable(tf.random_normal([3,3,5,7]))
-
- op8 = tf.nn.conv2d(input, filter, strides=[1, 2, 2, 1], padding='SAME')
-
- init = tf.initialize_all_variables()
- with tf.Session() as sess:
- sess.run(init)
- print("case 2")
- print(sess.run(op2))
- print("case 3")
- print(sess.run(op3))
- print("case 4")
- print(sess.run(op4))
- print("case 5")
- print(sess.run(op5))
- print("case 6")
- print(sess.run(op6))
- print("case 7")
- print(sess.run(op7))
- print("case 8")
- print(sess.run(op8))
因为是随机初始化,我的结果是这样的: