在前文 “ TensorFlow杂记 - 生成和读取TFRecord(一)” 和 “ TensorFlow杂记 - 生成和读取TFRecord(二)” 提供了两种生成和读取TFRecord文件的代码示例。
在前一篇文章“ TensorFlow杂记 - 理解读入图片,转换shape,卷积,最后再保存图片 ”示例了从本地读取一张图片,然后进行卷积操作。
本文提供一段从图片名列表中连续读取batch_size张图片,并进行batch卷积。
import tensorflow as tf
filelist = ['0000.jpg', '0001.jpg', '0002.jpg', '0003.jpg', '0004.jpg']
"""
批量读入图片,并转换成NCHW
"""
# 1、构造文件队列
file_queue = tf.train.string_input_producer(filelist)
# 2、构造阅读器去读取文件的内容(默认读取一张图片)
reader = tf.WholeFileReader()
# 从队列中读取图片数据
key, value = reader.read(file_queue)
# 3.对读取的图片文件进行解码
image = tf.image.decode_jpeg(value)
image_float32 = tf.image.convert_image_dtype(image, dtype=tf.float32)
""" 此处根据实际情况,选择是否执行resize """
# image_resize = tf.image.resize_images(image, [121, 121])
""" 此处需要指定图片的shape(HWC),否则会出现如下错误 """
""" ValueError: All shapes must be fully defined: [TensorShape([Dimension(None), Dimension(None), Dimension(None)])] """
image_float32.set_shape([335, 500, 3])
#
# 5.进行批处理,批处理要求所有数据形状必须定义
image_float32_batch = tf.train.batch([image_float32], batch_size=5, num_threads=1, capacity=16)
print("image_float32_batch.shape", image_float32_batch.shape)
image_float32_batch_NCHW = tf.transpose(image_float32_batch, perm=[0, 3, 1, 2])
"""
定义权重和偏置,执行batch卷积
"""
# 定义一个卷积核,参数2为[核宽,核高,输入通道数,输出通道数];定义一个偏执,参数2为[等同于输出通道数]
w = tf.get_variable("weight", [3, 3, 3, 128] ,initializer=tf.truncated_normal_initializer(stddev=0.1))
# b = tf.get_variable("biase", [64], initializer=tf.truncated_normal_initializer(0.0))
# 执行卷积,添加偏执
conv = tf.nn.conv2d(image_float32_batch_NCHW, w, strides=[1, 1, 1, 1], padding='SAME', data_format='NCHW')
# ret = tf.identity(tf.nn.bias_add(conv, b, data_format='NCHW'))
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
with tf.Session(config=config) as sess:
sess.run(tf.global_variables_initializer())
# 定义一个线程协调器
coordinator = tf.train.Coordinator()
# 开启读文件的线程
threads = tf.train.start_queue_runners(sess, coord=coordinator)
image_float32_batch_NCHW_ = sess.run(image_float32_batch_NCHW)
print(image_float32_batch_NCHW_.shape) # CHW
print(type(image_float32_batch_NCHW_)) # CHW
conv_ = sess.run(conv)
print(conv_.shape) # CHW
print(type(conv_)) # CHW
# 读取结束后回收子线程
coordinator.request_stop()
coordinator.join(threads)