使用TensorFlow Dataset 加速数据处理及训练

使用TensorFlow Dataset 加速数据处理及训练

https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/5_DataManagement/tensorflow_dataset_api.ipynb

import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("/tmp/data/", one_hot=True)

learning_rate = 0.001
num_steps = 1000
batch_size = 128
display_step = 100

n_input = 784
n_classes = 10
dropout = 0.75

sess = tf.Session()

dataset = tf.data.Dataset.from_tensor_slices(mnist.train.images,mnist.train.labels)
# 将数据集重复多少次,即epoch
dataset = dataset.repeat()
# 读取batch_size大小的数据
dataset = dataset.batch(batch_size)
# 提前获取数据,提高性能
dataset = dataset.prefetch(batch_size)
# 运用可初始化迭代器可实现训练集和验证集的切换。
iterator = dataset.make_initializable_iterator()

sess.run(iterator.initializer)

X,Y = iterator.get_next()

def conv_net(x, n_classes, dropout, reuse, is_training):
    with tf.variable_scope('ConvNet', reuse=reuse):
        x = tf.reshape(x, shape=[-1, 28, 28, 1])

        conv1 = tf.layers.conv2d(x, 32, 5, activation=tf.nn.relu)
        conv1 = tf.layers.max_pooling2d(conv1, 2, 2)

        conv2 = tf.layers.conv2d(conv1, 64, 3, activation=tf.nn.relu)
        conv2 = tf.layers.max_pooling2d(conv2, 2, 2)

        fc1 = tf.contrib.layers.flatten(conv2)

        fc1 = tf.layers.dense(fc1, 1024)
        fc1 = tf.layers.dropout(fc1, rate=dropout, training=is_training)

        out = tf.layers.dense(fc1, n_classes)
        out = tf.nn.softmax(out) if not is_training else out

    return out

logits_train = conv_net(X, n_classes, dropout, reuse=False, is_training=True)
logits_test = conv_net(X, n_classes, dropout, reuse=True, is_training=False)

loss_op = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(
    logits=logits_train, labels=Y))
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)
train_op = optimizer.minimize(loss_op)

correct_pred = tf.equal(tf.argmax(logits_test, 1), tf.argmax(Y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

init = tf.global_variables_initializer()

sess.run(init)

for step in range(1, num_steps + 1):

    sess.run(train_op)
        
    if step % display_step == 0 or step == 1:

        loss, acc = sess.run([loss_op, accuracy])
        print("Step " + str(step) + ", Minibatch Loss= " + \
              "{:.4f}".format(loss) + ", Training Accuracy= " + \
              "{:.3f}".format(acc))

print("Optimization Finished!")

https://www.jianshu.com/p/eec32f6c5503

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
TensorFlow 中,你可以使用 `tf.data.Dataset` API 来加载和处理图片数据,然后用于训练神经网络模型。具体步骤如下: 1. 准备数据集 首先,你需要准备一个包含图片数据的数据集,可以是文件夹下的图片文件或者是经过处理的图像数据。如果你的数据集是图片文件,你可以使用 TensorFlow 的 `ImageDataGenerator` 类来对图片进行处理,例如调整大小、旋转、翻转等操作。如果你的数据集已经经过处理,可以将其转换为 `tf.data.Dataset` 格式。 2. 创建数据集 接着,你需要使用 `tf.data.Dataset` API 来创建数据集。假设你的数据集是图片文件,你可以使用 `tf.keras.preprocessing.image.ImageDataGenerator` 类来创建数据集,例如: ```python import tensorflow as tf from tensorflow import keras # 创建 ImageDataGenerator 对象 datagen_train = keras.preprocessing.image.ImageDataGenerator( rescale=1./255, # 缩放像素值 rotation_range=20, # 随机旋转 width_shift_range=0.1, # 随机水平平移 height_shift_range=0.1, # 随机垂直平移 shear_range=10, # 随机错切变换 zoom_range=0.1, # 随机缩放 horizontal_flip=True, # 随机水平翻转 fill_mode='nearest' # 填充模式 ) # 从文件夹加载数据集 train_ds = datagen_train.flow_from_directory( 'path/to/train/directory', target_size=(224, 224), # 图像大小 batch_size=32, # 批次大小 class_mode='categorical' # 分类模式 ) ``` 在这段代码中,我们创建了一个 `ImageDataGenerator` 对象,并设置了一些参数来增强图片数据。然后,我们使用 `flow_from_directory()` 方法从文件夹加载数据集,并指定了一些参数,例如目标图像大小、批次大小和分类模式。 如果你的数据集已经经过处理,你可以使用 `tf.data.Dataset.from_tensor_slices()` 方法创建数据集,例如: ```python import tensorflow as tf # 加载数据集 x_train, y_train = load_data() # 创建数据集 train_ds = tf.data.Dataset.from_tensor_slices((x_train, y_train)) train_ds = train_ds.shuffle(10000).batch(32) ``` 在这段代码中,我们使用 `from_tensor_slices()` 方法从 NumPy 数组中创建数据集,然后使用 `shuffle()` 和 `batch()` 方法来打乱数据集并分批。 3. 定义模型 接着,你需要定义一个神经网络模型,用于训练图片数据。你可以使用 TensorFlow 的高级 API Keras 来定义模型,例如: ```python import tensorflow as tf from tensorflow import keras # 定义模型 model = keras.Sequential([ keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(224, 224, 3)), keras.layers.MaxPooling2D((2, 2)), keras.layers.Conv2D(64, (3, 3), activation='relu'), keras.layers.MaxPooling2D((2, 2)), keras.layers.Conv2D(128, (3, 3), activation='relu'), keras.layers.MaxPooling2D((2, 2)), keras.layers.Conv2D(128, (3, 3), activation='relu'), keras.layers.MaxPooling2D((2, 2)), keras.layers.Flatten(), keras.layers.Dense(512, activation='relu'), keras.layers.Dense(10, activation='softmax') ]) # 编译模型 model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy']) ``` 在这段代码中,我们定义了一个简单的卷积神经网络模型,并使用 `compile()` 方法来编译模型,指定了优化器、损失函数和评估指标。 4. 训练模型 最后,你可以使用 `fit()` 方法来训练模型,例如: ```python # 训练模型 model.fit(train_ds, epochs=10) ``` 在这段代码中,我们使用 `fit()` 方法来训练模型,传入数据集和训练轮数。模型会自动从数据集中读取数据进行训练。 以上就是使用 TensorFlow 加载图片数据进行训练的基本步骤。需要注意的是,如果你的数据集比较大,你需要使用分布式训练等技术来加速训练过程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值