TensorFlow(2)-tf.data.Dataset训练数据集构建

1. tf.data.Dataset

参考Google官方给出的Dataset API中的类图,Dataset 务于数据读取,构建输入数据的pipeline。在这里插入图片描述
Dataset可以看作是相同类型“元素”的有序列表,可使用Iterator迭代获取Dataset中的元素。

2. dataset 创建数据集的方式

2.1 tf.data.Dataset.from_tensor_slices()

从tensor中创建数据集,数据集元素以tensor第一维度为划分。

import tensorflow as tf
import numpy as np
# 切分传入Tensor的第一个维度,生成相应的dataset。
dataset1 = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0])) 
# 如果传入字典,那切分结果就是字典按值切分,元素型如{"a":[1],"b":[x,x]}
dataset2 = tf.data.Dataset.from_tensor_slices(
    {
        "a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]),                                       
        "b": np.random.uniform(size=(5, 2))
    }
)

2.2 tf.data.TextLineDataset()

读取文件数据创建数据集,数据集元素为文件的每一行

2.3 tf.data.FixedLengthRecordDataset()

从一个文件列表和record_bytes中创建数据集,数据集元素是文件中固定字节数record_bytes的内容。

2.4 tf.data.TFRecordDataset()

读TFRecord文件创建数据集,数据集中的一条数据是一个TFExample。

dataset = tf.data.TFRecordDataset(filenames = [tfrecord_file_name]) # [tfrecord_file_name] tfrecord 文件列表

frecord 文件中的特征一般都经过tf.train.Example 序列化,在使用前需要先解码tf.train.Example.FromString()

raw_example = next(iter(dataset))
parsed = tf.train.Example.FromString(raw_example.numpy())

3. dateset 迭代操作iterator

iterator是从Dataset对象中创建出来的,用于迭代取数据集中的元素。

3.1 make_one_shot_iterator()

dataset.make_one_shot_iterator()–只能从头到尾读取一次dataset。如果一个dataset中元素被读取完了再sess.run()的话,会抛出tf.errors.OutOfRangeError异常。因此可以在外界捕捉这个异常以判断数据是否读取完。

import tensorflow as tf
import numpy as np
# 切分传入Tensor的第一个维度,生成相应的dataset。如果传入字典,那切分结果就是字典按值切分
dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0])) 
iterator = dataset.make_one_shot_iterator()    # 只能从头到尾读取一次
one_element = iterator.get_next()              # 从iterator里取出一个元素。
# 处于非Eager模式,所以one_element只是一个Tensor,并不是一个实际的值。调用sess.run(one_element)后,才能真正地取出一个值。
with tf.Session() as sess:
    try:
        while True:
            print(sess.run(one_element))

    except tf.errors.OutOfRangeError:
        print("end!")   

3.2 make_initializable_iterator()

dataset.make_initializable_iterator()–支持placeholder dataset 的迭代操作,这可以方便通过参数快速定义新的Iterator。

 # limit相当于一个参数,它规定了Dataset中数的上限, 使用make_initializable_iterator
limit = tf.placeholder(dtype=tf.int32, shape=[])
dataset = tf.data.Dataset.from_tensor_slices(tf.range(start=0, limit=limit))
iterator = dataset.make_initializable_iterator()
next_element = iterator.get_next()  
with tf.Session() as sess:
    sess.run(iterator.initializer, feed_dict={limit: 10})
    for i in range(10):
      value = sess.run(next_element)
      assert i == value

sess.run(next_element) 每run一次, 数据迭代器指针就会往下移动一个。TF官网学习(9)–使用iterator注意事项

如果在dataset的构建时,一次性读入了所有的数据,会导致计算图变得很大,给传输、保存带来不便。make_initializable_iterator()支持placeholder 操作,仅在需要传输数据时再取数据。

# 从硬盘中读入两个Numpy数组
with np.load("/var/data/training_data.npy") as data:
  features = data["features"]
  labels = data["labels"]

features_placeholder = tf.placeholder(features.dtype, features.shape)
labels_placeholder = tf.placeholder(labels.dtype, labels.shape)

dataset = tf.data.Dataset.from_tensor_slices((features_placeholder, labels_placeholder))
iterator = dataset.make_initializable_iterator()
sess.run(iterator.initializer, feed_dict={features_placeholder: features,
                                          labels_placeholder: labels})

3.3 reinitializable iterator()

dataset.reinitializable iterator() --待补

3.4 feedable iterator()

dataset.feedable iterator()–待补

4. dataset的map、batch、shuffle、repeat操作

map–接收一个函数,Dataset中的每个元素都会被当作这个函数的输入,并将函数返回值作为新的Dataset。

dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))
dataset = dataset.map(lambda x: x + 1) # 2.0, 3.0, 4.0, 5.0, 6.0

batch–将多个元素组合成一个batch

dataset = dataset.batch(16)    # 将数据集划分为batch size为16的小批次

shuffle– 打乱dataset中的元素,参数buffersize。打乱的实现机理:从buffer_size 大小的部buffer中随机抽取元素,组成打乱后的数据集。buffer中被抽走的元素由原数据集中的后续元素补位置。 重复‘抽取-补充’这个过程,直至buffer为空。
会在batch之间打乱数据–疑问多tfrecord 文件是一次性构建数据集还是一条一条的构建

buffer_size 的大小详见tf.data.Dataset.shuffle(buffer_size)中buffer_size的理解

dataset = dataset.shuffle(buffer_size=10000)

repeat– 将整个序列重复多次,用来处理机器学习中的epoch,假设原始数据是一个epoch,使用repeat(5)就可以将之变成5个epoch

dataset = dataset.repeat(5)

5. 非eager/eager 模式

5.1 非eager模式demo

在非Eager模式下,Dataset中读出的一个元素一般对应一个batch的Tensor,我们可以使用这个Tensor在计算图中构建模型。

import tensorflow as tf
import numpy as np
# 切分传入Tensor的第一个维度,生成相应的dataset。如果传入字典,那切分结果就是字典按值切分
dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0])) 
iterator = dataset.make_one_shot_iterator()    # 只能从头到尾读取一次
one_element = iterator.get_next()              # 从iterator里取出一个元素。
# 处于非Eager模式,所以one_element只是一个Tensor,并不是一个实际的值。调用sess.run(one_element)后,才能真正地取出一个值。
with tf.Session() as sess:
    try:
        while True:
            print(sess.run(one_element))

    except tf.errors.OutOfRangeError:
        print("end!")   

5.2 eager模式demo

在Eager模式下,Dataset建立Iterator的方式有所不同,此时通过读出的数据就是含有值的Tensor,方便调试。

import tensorflow.contrib.eager as tfe
tfe.enable_eager_execution()
dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))
for one_element in tfe.Iterator(dataset):
    print(one_element)             # 可直接读取数据

参考文献:TensorFlow全新的数据读取方式:Dataset API入门教程


  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 要建立自己的 `tf.data.Dataset`,需要执行以下步骤: 1. 准备数据。这可以是从文件中读取的数据,也可以是从内存中生成的数据。 2. 定义数据的结构。这包括数据的形状和类型。 3. 使用 `tf.data.Dataset.from_tensor_slices` 或 `tf.data.Dataset.from_generator` 等函数将数据转换为 `tf.data.Dataset` 对象。 例如,下面是使用 `tf.data.Dataset.from_tensor_slices` 从内存中的数据创建 `tf.data.Dataset` 的示例代码: ``` import tensorflow as tf # 准备数据 data = [1, 2, 3, 4, 5] # 定义数据的结构 dataset = tf.data.Dataset.from_tensor_slices(data) # 打印数据集的信息 print(dataset.element_spec) ``` 输出: ``` TensorSpec(shape=(), dtype=tf.int32, name=None) ``` 此时,我们就创建了一个包含单个整数的数据集。 您还可以使用 `tf.data.Dataset.batch` 函数将数据打包成批次,使用 `tf.data.Dataset.repeat` 函数将数据集重复多次,使用 `tf.data.Dataset.shuffle` 函数打乱数据的顺序,等等。 ### 回答2: 要建立自己的 tf.data.Dataset,一般有以下几个步骤: 第一步,准备数据。可以从不同的来源获取数据,例如文件、数据库、API等。将数据转换成张量的形式,并进行预处理和清洗。 第二步,构建数据管道。使用 tf.data.Dataset.from_tensor_slices() 函数将数据切分成一个个样本,每个样本都是一个张量。然后可以通过链式调用一系列的数据转换函数,如 map()、filter()、batch()、shuffle()等,来对数据进行进一步处理和增强。 第三步,迭代数据。使用迭代器(iterator)从数据管道中获取样本,并在模型中使用。可以通过创建初始迭代器(iterator.initializer)和迭代器可重新初始化(iterator.reinitializable)两种方式实现。 第四步,训练模型。使用得到的数据进行模型的训练和评估。可以使用 tf.data.Dataset 对象作为模型的输入,通过逐个样本地传递到模型中,并通过调用模型的 fit() 或者 train_on_batch() 方法进行训练。 第五步,优化性能。tf.data.Dataset 提供了一些参数和方法来优化数据管道的性能,如 prefetch()、cache() 和 map() 中的 num_parallel_calls 参数等,可以根据需要对数据管道进行设置。 总结来说,建立自己的 tf.data.Dataset 需要准备数据、构建数据管道、迭代数据、训练模型和优化性能。通过将数据转换成张量,并使用一系列的函数对数据进行处理和增强,可以提高数据的处理效率和模型的训练性能。 ### 回答3: 建立自己的 tf.data.Dataset 可以通过以下步骤完成: 第一步,首先需要准备好数据。数据可以是来自于不同来源的数据集,例如 CSV、Excel、数据库等,或者是在内存中的数据结构。我们需要将数据转化成 TensorFlow 中的张量或者是可以转化成张量的形式。 第二步,使用 tf.data.Dataset.from_tensor_slices() 方法将数据转化为 Dataset 对象。该方法通常用于处理内存中的数据,通过传递一个或多个张量作为输入参数,将张量的元素切片成多个数据项。例如,如果我们有一个包含100个样本的张量 X,并且每个样本包含2个特征,我们可以使用该方法将其转化为 Dataset 对象:dataset = tf.data.Dataset.from_tensor_slices(X)。 第三步,通过链式操作,可以对 Dataset 对象进行一系列的转换和处理。例如,可以使用 map() 方法对每个样本进行一些预处理,使用 filter() 方法过滤掉某些数据项,使用 batch() 方法对数据进行批处理等。这些转换操作可以根据数据的特点和需求进行自定义。 第四步,最后可以对 Dataset 对象进行迭代,获取每个样本。使用 for 循环遍历 Dataset 对象,可以得到每个样本的特征。例如,可以使用以下代码遍历 Dataset: for sample in dataset: # 访问每个样本的特征 print(sample) 通过以上步骤,我们就可以建立自己的 tf.data.Dataset 对象,并对其进行自定义的数据处理和转换操作。构建和使用 tf.data.DatasetTensorFlow 中进行数据输入的一种灵活且高效的方式,可以帮助我们更好地处理和管理数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值