TFRecords 文件的生成和读取

    TensorFlow提供了TFRecords的格式来统一存储数据,理论上,TFRecords可以存储任何形式的数据。

    TFRecords文件中的数据都是通过tf.train.Example Protocol Buffer的格式存储的。以下的代码给出了tf.train.Example的定义。

message Example {
    Features features = 1;
};
message Features {
    map<string, Feature> feature = 1;
};
message Feature {
    oneof kind {
    BytesList bytes_list = 1;
    FloatList float_list = 2;
    Int64List int64_list = 3;
}
};


下面将介绍如何生成和读取tfrecords文件:

首先介绍tfrecords文件的生成,直接上代码:

from random import shuffle
import numpy as np
import glob
import tensorflow as tf
import cv2
import sys
import os

# 因为我装的是CPU版本的,运行起来会有'warning',解决方法入下,眼不见为净~
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

shuffle_data = True
image_path = '/path/to/image/*.jpg'

# 取得该路径下所有图片的路径,type(addrs)= list
addrs = glob.glob(image_path)
# 标签数据的获得具体情况具体分析,type(labels)= list
labels = ...

# 这里是打乱数据的顺序
if shuffle_data:
    c = list(zip(addrs, labels))
    shuffle(c)
    addrs, labels = zip(*c)

# 按需分割数据集
train_addrs = addrs[0:int(0.7*len(addrs))]
train_labels = labels[0:int(0.7*len(labels))]

val_addrs = addrs[int(0.7*len(addrs)):int(0.9*len(addrs))]
val_labels = labels[int(0.7*len(labels)):int(0.9*len(labels))]

test_addrs = addrs[int(0.9*len(addrs)):]
test_labels = labels[int(0.9*len(labels)):]

# 上面不是获得了image的地址么,下面这个函数就是根据地址获取图片
def load_image(addr):  # A function to Load image
    img = cv2.imread(addr)
    img = cv2.resize(img, (224, 224), interpolation=cv2.INTER_CUBIC)
    img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    # 这里/255是为了将像素值归一化到[0,1]
    img = img / 255.
    img = img.astype(np.float32)
    return img

# 将数据转化成对应的属性
def _int64_feature(value):  
    return tf.train.Feature(int64_list=tf.train.Int64List(value=[value]))


def _bytes_feature(value):
    return tf.train.Feature(bytes_list=tf.train.BytesList(value=[value]))


def _float_feature(value):
    return tf.train.Feature(float_list=tf.train.FloatList(value=[value]))

# 下面这段就开始把数据写入TFRecods文件

train_filename = '/path/to/train.tfrecords'  # 输出文件地址

# 创建一个writer来写 TFRecords 文件
writer = tf.python_io.TFRecordWriter(train_filename)

for i in range(len(train_addrs)):
    # 这是写入操作可视化处理
    if not i % 1000:
        print('Train data: {}/{}'.format(i, len(train_addrs)))
        sys.stdout.flush()
    # 加载图片
    img = load_image(train_addrs[i])

    label = train_labels[i]

    # 创建一个属性(feature)
    feature = {'train/label': _int64_feature(label),
               'train/image': _bytes_feature(tf.compat.as_bytes(img.tostring()))}

    # 创建一个 example protocol buffer
    example = tf.train.Example(features=tf.train.Features(feature=feature))

    # 将上面的example protocol buffer写入文件
    writer.write(example.SerializeToString())

writer.close()
sys.stdout.flush()

    上面只介绍了train.tfrecords文件的生成,其余的validation,test举一反三吧。。
    接下来介绍tfrecords文件的读取:

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
import os

os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
data_path = 'train.tfrecords'  # tfrecords 文件的地址


with tf.Session() as sess:
    # 先定义feature,这里要和之前创建的时候保持一致
    feature = {
        'train/image': tf.FixedLenFeature([], tf.string),
        'train/label': tf.FixedLenFeature([], tf.int64)
    }
    # 创建一个队列来维护输入文件列表
    filename_queue = tf.train.string_input_producer([data_path], num_epochs=1)

    # 定义一个 reader ,读取下一个 record
    reader = tf.TFRecordReader()
    _, serialized_example = reader.read(filename_queue)

    # 解析读入的一个record
    features = tf.parse_single_example(serialized_example, features=feature)

    # 将字符串解析成图像对应的像素组
    image = tf.decode_raw(features['train/image'], tf.float32)

    # 将标签转化成int32
    label = tf.cast(features['train/label'], tf.int32)

    # 这里将图片还原成原来的维度
    image = tf.reshape(image, [224, 224, 3])

    # 你还可以进行其他一些预处理....

    # 这里是创建顺序随机 batches(函数不懂的自行百度)
    images, labels = tf.train.shuffle_batch([image, label], batch_size=10, capacity=30, min_after_dequeue=10)

    # 初始化
    init_op = tf.group(tf.global_variables_initializer(), tf.local_variables_initializer())
    sess.run(init_op)

    # 启动多线程处理输入数据
    coord = tf.train.Coordinator()
    threads = tf.train.start_queue_runners(coord=coord)

    ....


    #关闭线程
    coord.request_stop()
    coord.join(threads)
    sess.close()
好了,就介绍到这里。。,有什么问题可以留言。。大家一起学习。。

  • 4
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 27
    评论
在C++中,生成读取pkl文件需要使用第三方库来处理。以下是使用Python的`pickle`库生成读取pkl文件的方法。 首先,你需要在C++中调用Python代码来处理pkl文件。你可以使用`Python/C API`或者其他跨语言的库来实现这一点。这里我们以`Python/C API`为例。 生成pkl文件的方法如下: 1. 创建一个Python脚本(例如`generate_pkl.py`),编写生成pkl文件的逻辑。例如: ```python import pickle data = {"example": "data"} with open("example.pkl", "wb") as f: pickle.dump(data, f) ``` 2. 在C++代码中,使用`Python/C API`来调用这个Python脚本。例如: ```cpp #include <Python.h> int main() { Py_Initialize(); // 导入并执行generate_pkl.py脚本 FILE* file = fopen("generate_pkl.py", "r"); PyRun_SimpleFile(file, "generate_pkl.py"); fclose(file); Py_Finalize(); return 0; } ``` 运行这段C++代码将会调用Python脚本生成一个名为`example.pkl`的pkl文件读取pkl文件的方法如下: 1. 创建一个Python脚本(例如`read_pkl.py`),编写读取pkl文件的逻辑。例如: ```python import pickle with open("example.pkl", "rb") as f: data = pickle.load(f) print(data) ``` 2. 在C++代码中,使用`Python/C API`来调用这个Python脚本。例如: ```cpp #include <Python.h> int main() { Py_Initialize(); // 导入并执行read_pkl.py脚本 FILE* file = fopen("read_pkl.py", "r"); PyRun_SimpleFile(file, "read_pkl.py"); fclose(file); Py_Finalize(); return 0; } ``` 运行这段C++代码将会调用Python脚本读取`example.pkl`文件并打印其中的数据。 请确保你已经安装了Python以及对应的`pickle`库,并将生成读取pkl文件的Python脚本放置在正确的位置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 27
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值