TensorFlow2从磁盘读取图片数据集的示例(tf.keras.utils.image_dataset_from_directory)

import os
import warnings
warnings.filterwarnings("ignore")
import tensorflow as tf
from tensorflow.keras.optimizers import Adam
from tensorflow.keras.applications.resnet import ResNet50

#数据所在文件夹
base_dir = './data/cats_and_dogs'
train_dir = os.path.join(base_dir,'train')

train_data,validation_data = tf.keras.utils.image_dataset_from_directory(
    train_dir,
    labels='inferred',
    label_mode='binary',
    class_names=["cats","dogs"],
    color_mode='rgb',
    batch_size=32,
    image_size=(64, 64),
    shuffle=True,
    seed=2023,
    validation_split=0.5,
    subset='both',
    interpolation='bilinear',
    follow_links=False,
    crop_to_aspect_ratio=False,
)

save_model_cb = tf.keras.callbacks.ModelCheckpoint(filepath='model_resnet50_cats_and_dogs.h5', save_freq='epoch')

base_model = ResNet50(weights='imagenet', include_top=False, input_shape=(64, 64, 3))
base_model.trainable = True
    
model = tf.keras.models.Sequential([
    base_model,
    tf.keras.layers.Dropout(0.2),
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(512, activation='relu',kernel_regularizer=tf.keras.regularizers.l2(l=0.01)),
    tf.keras.layers.Dense(1, activation='sigmoid')
])

model.compile(loss='binary_crossentropy',optimizer = Adam(learning_rate=1e-3),metrics = ['acc'])

model.summary()
history = model.fit(train_data.repeat(),steps_per_epoch=100,epochs=50,validation_data=validation_data.repeat(),validation_steps=50,verbose=1,callbacks = [save_model_cb])

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: tf.keras.utils.image_dataset_from_directory是一个函数,用于从目录中读取图像数据集并返回一个tf.data.Dataset对象。它可以自动将图像数据集划分为训练集和验证集,并对图像进行预处理和数据增强。此函数是TensorFlow Keras API的一部分,用于构建深度学习模型。 ### 回答2: tf.keras.utils.image_dataset_from_directory是一个用于从文件夹中加载图像数据集的实用函数。该函数以指定的文件夹路径作为输入,自动将文件夹中的图像按照类别划分,并生成一个tf.data.Dataset对象,用于训练或评估深度学习模型。 该函数的主要参数包括: - directory:指定的文件夹路径,用于加载图像数据集。 - labels:可选参数,指定是否从文件夹的子文件夹中自动提取类别标签。 - label_mode:可选参数,指定类别标签的返回类型。支持"categorical"、"binary"、"sparse"和"int"四种类型。 - batch_size:指定生成的Dataset对象中每个batch的样本数量。 - image_size:可选参数,指定生成的样本的图像大小。 - validation_split:可选参数,指定用于验证集划分的比例。 当调用该函数时,首先会通过遍历指定路径下的所有图片文件,自动提取所有类别的名称。然后,根据提取的类别信息,将文件夹中的图像按照类别划分,并为每个类别生成一个不同的整数标签。最后,将这些划分好的图像数据转换为tf.data.Dataset对象,并将类别标签与样本数据一一对应。 最终生成的Dataset对象中,每个样本都是一个元组,包含图像数据和对应的类别标签。该Dataset对象可以直接用于训练或评估深度学习模型,并且可以通过设置参数来自动进行数据增强、批处理等操作。 使用tf.keras.utils.image_dataset_from_directory函数,可以方便地加载和处理大量的图像数据集,提高模型训练的效率和准确率。 ### 回答3: tf.keras.utils.image_dataset_from_directory是一个用于从文件目录中加载图像数据集的函数。它基于TensorFlow的Keras API,并提供了一种方便的方式来准备图像数据集进行训练和验证。 该函数能够自动地从文件目录读取图像,并创建一个TensorFlow数据集对象,其中每个图像与其标签关联。使用该函数,可以轻松地从文件夹中加载具有不同类别的图像数据,并自动将其划分为训练集和验证集。可以指定训练集和验证集的比例、图像的大小、批次大小等参数。此外,还可以进行数据预处理操作,如图像放缩、归一化等。 使用该函数的步骤如下: 1. 准备图像数据集:将不同类别的图像按照标签存储在不同的文件夹中。 2. 调用image_dataset_from_directory函数:指定图像文件夹的路径,并设定其他参数如图像大小、批次大小等。 3. 接收返回的数据集对象:该对象包含训练集和验证集。 4. 可以将该数据集对象直接用于模型的训练、评估和推理。 该函数的优点是简单易用,能够快速地加载图像数据集,并且能够与tf.data API无缝集成,方便进行数据增强、数据流水线等高级操作。它减少了手动处理图像数据的工作量,使得图像分类、目标检测等任务更加高效。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值