keras学习篇:图像预处理ImageDataGenerator 类

ImageDataGenerator 类

通过实时数据增强生成张量图像数据批次。数据将不断循环(按批次)。

keras.preprocessing.image.ImageDataGenerator(featurewise_center=False,  
                                             samplewise_center=False, 
                                             featurewise_std_normalization=False, 
                                             samplewise_std_normalization=False, 
                                             zca_whitening=False, 
                                             zca_epsilon=1e-06, 
                                             rotation_range=0, 
                                             width_shift_range=0.0, 
                                             height_shift_range=0.0, 
                                             brightness_range=None, 
                                             shear_range=0.0, 
                                             zoom_range=0.0, 
                                             channel_shift_range=0.0, 
                                             fill_mode='nearest', 
                                             cval=0.0, 
                                             horizontal_flip=False, 
                                             vertical_flip=False, 
                                             rescale=None, 
                                             preprocessing_function=None, 
                                             data_format=None, 
                                             validation_split=0.0, 
                                             dtype=None)
参数
  • featurewise_center: 布尔值。将输入数据的均值设置为 0,逐特征进行。
  • samplewise_center: 布尔值。将每个样本的均值设置为 0。
  • featurewise_std_normalization: Boolean. 布尔值。将输入除以数据标准差,逐特征进行。
  • samplewise_std_normalization: 布尔值。将每个输入除以其标准差。
  • zca_epsilon: ZCA 白化的 epsilon 值,默认为 1e-6。
  • zca_whitening: 布尔值。是否应用 ZCA 白化。
  • rotation_range: 整数。随机旋转的度数范围。
  • width_shift_range: 浮点数、一维数组或整数
    • float: 如果 <1,则是除以总宽度的值,或者如果 >=1,则为像素值。
    • 1-D 数组: 数组中的随机元素。
    • int: 来自间隔 (-width_shift_range, +width_shift_range) 之间的整数个像素。
    • width_shift_range=2 时,可能值是整数 [-1, 0, +1],与 width_shift_range=[-1, 0,
      +1] 相同;而 width_shift_range=1.0 时,可 能值是 [-1.0, +1.0) 之间的浮点数。
  • height_shift_range: 浮点数、一维数组或整数。
  • shear_range: 浮点数。剪切强度(以弧度逆时针方向剪切角度)。
  • zoom_range: 浮点数 或 [lower, upper]。随机缩放范围。如果是浮点数,[lower, upper] = [1-zoom_range, 1+zoom_range]。
  • channel_shift_range: 浮点数。随机通道转换的范围。
  • fill_mode: {“constant”, “nearest”, “reflect” or “wrap”} 之一。默认为’nearest’。输入边界以外的点根据给定的模式填充:'constant’、‘nearest’、‘reflect’、‘wrap’。
  • cval: 浮点数或整数。用于边界之外的点的值,当 fill_mode = “constant” 时。
  • horizontal_flip: 布尔值。随机水平翻转。
  • vertical_flip: 布尔值。随机垂直翻转。
  • rescale: 重缩放因子。默认为 None。如果是 None 或 0,不进行缩放,否则将数据乘以所提供的值(在应用任何其他转换之前)。
  • preprocessing_function: 应用于每个输入的函数。这个函数会在任何其他改变之前运行。这个函数需要一个参数:一张图像(秩为 3 的 Numpy 张量),并且应该输出一个同尺寸的 Numpy 张量。
  • data_format: 图像数据格式,{“channels_first”, “channels_last”} 之一。“channels_last” 模式表示图像输入尺寸应该为 (samples, height, width, channels),“channels_first” 模式表示输入尺寸应该为 (samples, channels, height, width)。默认为 在 Keras 配置文件 ~/.keras/keras.json 中的 image_data_format 值。如果你从未设置它,那它就是 “channels_last”。
  • validation_split: 浮点数。Float. 保留用于验证的图像的比例(严格在0和1之间)。
  • dtype: 生成数组使用的数据类型。

例子

使用 .flow(x, y) 的例子:
(x_train, y_train), (x_test, y_test) = cifar10.load_data()
y_train = np_utils.to_categorical(y_train, num_classes)
y_test = np_utils.to_categorical(y_test, num_classes)

datagen = ImageDataGenerator(
    featurewise_center=True,
    featurewise_std_normalization=True,
    rotation_range=20,
    width_shift_range=0.2,
    height_shift_range=0.2,
    horizontal_flip=True)

# 计算特征归一化所需的数量
# (如果应用 ZCA 白化,将计算标准差,均值,主成分)
datagen.fit(x_train)

# 使用实时数据增益的批数据对模型进行拟合:
model.fit_generator(datagen.flow(x_train, y_train, batch_size=32),
                    steps_per_epoch=len(x_train) / 32, epochs=epochs)

# 这里有一个更 「手动」的例子
for e in range(epochs):
    print('Epoch', e)
    batches = 0
    for x_batch, y_batch in datagen.flow(x_train, y_train, batch_size=32):
        model.fit(x_batch, y_batch)
        batches += 1
        if batches >= len(x_train) / 32:
            # 我们需要手动打破循环,
            # 因为生成器会无限循环
            break
使用 .flow_from_directory(directory) 的例子:
train_datagen = ImageDataGenerator(
        rescale=1./255,
        shear_range=0.2,
        zoom_range=0.2,
        horizontal_flip=True)

test_datagen = ImageDataGenerator(rescale=1./255)

train_generator = train_datagen.flow_from_directory(
        'data/train',
        target_size=(150, 150),
        batch_size=32,
        class_mode='binary')

validation_generator = test_datagen.flow_from_directory(
        'data/validation',
        target_size=(150, 150),
        batch_size=32,
        class_mode='binary')

model.fit_generator(
        train_generator,
        steps_per_epoch=2000,
        epochs=50,
        validation_data=validation_generator,
        validation_steps=800)
同时转换图像和蒙版 (mask) 的例子
# 创建两个相同参数的实例
data_gen_args = dict(featurewise_center=True,
                     featurewise_std_normalization=True,
                     rotation_range=90,
                     width_shift_range=0.1,
                     height_shift_range=0.1,
                     zoom_range=0.2)
image_datagen = ImageDataGenerator(**data_gen_args)
mask_datagen = ImageDataGenerator(**data_gen_args)

# 为 fit 和 flow 函数提供相同的种子和关键字参数
seed = 1
image_datagen.fit(images, augment=True, seed=seed)
mask_datagen.fit(masks, augment=True, seed=seed)

image_generator = image_datagen.flow_from_directory(
    'data/images',
    class_mode=None,
    seed=seed)

mask_generator = mask_datagen.flow_from_directory(
    'data/masks',
    class_mode=None,
    seed=seed)

# 将生成器组合成一个产生图像和蒙版(mask)的生成器
train_generator = zip(image_generator, mask_generator)

model.fit_generator(
    train_generator,
    steps_per_epoch=2000,
    epochs=50)

ImageDataGenerator 类方法

apply_transform

apply_transform(x, transform_parameters)

根据给定的参数将变换应用于图像。

参数
  • x: 3D 张量,单张图像。
  • transform_parameters: 字符串 - 参数 对表示的字典,用于描述转换。目前,使用字典中的以下参数:
    • ‘theta’: 浮点数。旋转角度(度)。
    • tx’: 浮点数。在 x 方向上移动。
    • ‘ty’: 浮点数。在 y 方向上移动。
    • shear’: 浮点数。剪切角度(度)。
    • ‘zx’: 浮点数。放大 x 方向。
    • ‘zy’: 浮点数。放大 y 方向。
    • ‘flip_horizontal’: 布尔 值。水平翻转。
    • ‘flip_vertical’: 布尔值。垂直翻转。
    • ‘channel_shift_intencity’: 浮点数。频道转换强度。
    • ‘brightness’: 浮点数。亮度转换强度。
返回

输入的转换后版本(相同尺寸)。

fit

fit(x, augment=False, rounds=1, seed=None)

将数据生成器用于某些示例数据。

它基于一组样本数据,计算与数据转换相关的内部数据统计。

当且仅当 featurewise_centerfeaturewise_std_normalizationzca_whitening 设置为 True 时才需要。

参数
  • x: 样本数据。秩应该为 4。对于灰度数据,通道轴的值应该为 1;对于 RGB 数据,值应该为 3。
  • augment: 布尔值(默认为 False)。是否使用随机样本扩张。
  • rounds: 整数(默认为 1)。如果数据数据增强(augment=True),表明在数据上进行多少次增强。
  • seed: 整数(默认 None)。随机种子。

flow

flow(x, y=None, batch_size=32, shuffle=True, sample_weight=None, seed=None, save_to_dir=None, save_prefix='', save_format='png', subset=None)

采集数据和标签数组,生成批量增强数据。

参数
  • x: 输入数据。秩为 4 的 Numpy 矩阵或元组。如果是元组,第一个元素应该包含图像,第二个元素是另一个 Numpy 数组或一列
    Numpy 数组,它们不经过任何修改就传递给输出。可用于将模型杂项数据与图像一起输入。对于灰度数据,图像数组的通道轴的值应该为 1,而对于
    RGB 数据,其值应该为 3。
  • y: 标签。
  • batch_size: 整数 (默认为 32)。
  • shuffle: 布尔值 (默认为 True)。
  • sample_weight: 样本权重。
  • seed: 整数(默认为 None)。
  • save_to_dir: None 或 字符串(默认为
    None)。这使您可以选择指定要保存的正在生成的增强图片的目录(用于可视化您正在执行的操作)。
  • save_prefix: 字符串(默认 ‘’)。保存图片的文件名前缀(仅当 save_to_dir 设置时可用)。
  • save_format: “png”, “jpeg” 之一(仅当 save_to_dir 设置时可用)。默认:“png”。
  • subset: 数据子集 (“training” 或 “validation”),如果 在 ImageDataGenerator 中设置了
    validation_split。
返回

一个生成元组 (x, y) 的 Iterator,其中 x 是图像数据的 Numpy 数组(在单张图像输入时),或 Numpy 数组列表(在额外多个输入时),y 是对应的标签的 Numpy 数组。如果 ‘sample_weight’ 不是 None,生成的元组形式为 (x, y, sample_weight)。如果 y 是 None, 只有 Numpy 数组 x 被返回。

flow_from_dataframe

flow_from_dataframe(dataframe, directory, x_col='filename', y_col='class', has_ext=True, target_size=(256, 256), color_mode='rgb', classes=None, class_mode='categorical', batch_size=32, shuffle=True, seed=None, save_to_dir=None, save_prefix='', save_format='png', subset=None, interpolation='nearest')

输入 dataframe 和目录的路径,并生成批量的增强/标准化的数据。

这里有一个简单的教程: http://bit.ly/keras_flow_from_dataframe

参数
  • dataframe: Pandas dataframe,一列为图像的文件名,另一列为图像的类别, 或者是可以作为原始目标数据多个列。
  • directory: 字符串,目标目录的路径,其中包含在 dataframe 中映射的所有图像。
  • x_col: 字符串,dataframe 中包含目标图像文件夹的目录的列。
  • y_col: 字符串或字符串列表,dataframe 中将作为目标数据的列。
  • has_ext: 布尔值,如果 dataframe[x_col] 中的文件名具有扩展名则为 True,否则为 False。
  • target_size: 整数元组 (height, width),默认为 (256, 256)。 所有找到的图都会调整到这个维度。
  • color_mode: “grayscale”, “rbg” 之一。默认:“rgb”。 图像是否转换为 1 个或 3 个颜色通道。
  • classes: 可选的类别列表 (例如, [‘dogs’, ‘cats’])。默认:None。 如未提供,类比列表将自动从 y_col 中推理出来,y_col 将会被映射为类别索引)。 包含从类名到类索引的映射的字典可以通过属性 class_indices 获得。
  • class_mode: “categorical”, “binary”, “sparse”, “input”, “other” or None 之一。 默认:“categorical”。决定返回标签数组的类型:
    • “categorical” 将是 2D one-hot 编码标签,
    • “binary” 将是 1D 二进制标签,
    • “sparse” 将是 1D 整数标签,
    • “input” 将是与输入图像相同的图像(主要用于与自动编码器一起使用),
    • “other” 将是 y_col 数据的 numpy 数组,
    • None, 不返回任何标签(生成器只会产生批量的图像数据,这对使用 model.predict_generator(), model.evaluate_generator() 等很有用)。
  • batch_size: 批量数据的尺寸(默认:32)。
  • shuffle: 是否混洗数据(默认:True)
  • seed: 可选的混洗和转换的随即种子。
  • save_to_dir: None 或 str (默认: None). 这允许你可选地指定要保存正在生成的增强图片的目录(用于可视化您正在执行的操作)。
  • save_prefix: 字符串。保存图片的文件名前缀(仅当 save_to_dir 设置时可用)。
  • save_format: “png”, “jpeg” 之一(仅当 save_to_dir 设置时可用)。默认:“png”。
  • follow_links: 是否跟随类子目录中的符号链接(默认:False)。
  • subset: 数据子集 (“training” 或 “validation”),如果在 ImageDataGenerator 中设置了 validation_split。
  • interpolation: 在目标大小与加载图像的大小不同时,用于重新采样图像的插值方法。 支持的方法有 “nearest”, “bilinear”, and “bicubic”。 如果安装了 1.1.3 以上版本的 PIL 的话,同样支持 “lanczos”。 如果安装了 3.4.0 以上版本的 PIL 的话,同样支持 “box” 和 “hamming”。 默认情况下,使用 “nearest”。
Returns

一个生成 (x, y) 元组的 DataFrameIterator, 其中 x 是一个包含一批尺寸为 (batch_size, *target_size, channels) 的图像样本的 numpy 数组,y 是对应的标签的 numpy 数组。

flow_from_directory

flow_from_directory(directory, target_size=(256, 256), color_mode='rgb', classes=None, class_mode='categorical', batch_size=32, shuffle=True, seed=None, save_to_dir=None, save_prefix='', save_format='png', follow_links=False, subset=None, interpolation='nearest')
参数
  • directory: 目标目录的路径。每个类应该包含一个子目录。任何在子目录树下的 PNG, JPG, BMP, PPM 或 TIF 图像,都将被包含在生成器中。
  • target_size: 整数元组 (height, width),默认:(256, 256)。所有的图像将被调整到的尺寸。
  • color_mode: “grayscale”, “rbg” 之一。默认:“rgb”。图像是否被转换成 1 或 3 个颜色通道。
  • classes: 可选的类的子目录列表(例如 [‘dogs’, ‘cats’])。默认:None。如果未提供,类的列表将自动从 directory 下的 子目录名称/结构 中推断出来,其中每个子目录都将被作为不同的类(类名将按字典序映射到标签的索引)。包含从类名到类索引的映射的字典可以通过 class_indices 属性获得。
  • class_mode: “categorical”, “binary”, “sparse”, “input” 或 None 之一。默认:“categorical”。决定返回的标签数组的类型:
    • “categorical” 将是 2D one-hot 编码标签
    • “binary” 将是 1D 二进制标签,“sparse” 将是 1D 整数标签.
    • “input” 将是与输入图像相同的图像(主要用于自动编码器)。
    • 如果为 None,不返回标签(生成器将只产生批量的图像数据,对于 model.predict_generator(), model.evaluate_generator() 等很有用)。请注意,如果 class_mode 为 None,那么数据仍然需要驻留在 directory 的子目录中才能正常工作。
  • batch_size: 一批数据的大小(默认 32)。
  • shuffle: 是否混洗数据(默认 True)。
  • seed: 可选随机种子,用于混洗和转换。
  • save_to_dir: None 或 字符串(默认 None)。这使你可以最佳地指定正在生成的增强图片要保存的目录(用于可视化你在做什么)。
  • save_prefix: 字符串。 保存图片的文件名前缀(仅当 save_to_dir 设置时可用)。
  • save_format: “png”, “jpeg” 之一(仅当 save_to_dir 设置时可用)。默认:“png”。
  • follow_links: 是否跟踪类子目录中的符号链接(默认为 False)。
  • subset: 数据子集 (“training” 或 “validation”),如果 在 ImageDataGenerator 中设置了 validation_split。
  • interpolation: 在目标大小与加载图像的大小不同时,用于重新采样图像的插值方法。 支持的方法有 “nearest”, “bilinear”, and “bicubic”。 如果安装了 1.1.3 以上版本的 PIL 的话,同样支持 “lanczos”。 如果安装了 3.4.0 以上版本的 PIL 的话,同样支持 “box” 和 “hamming”。 默认情况下,使用 “nearest”。
返回

一个生成 (x, y) 元组的 DirectoryIterator,其中 x 是一个包含一批尺寸为 (batch_size, *target_size, channels)的图像的 Numpy 数组,y 是对应标签的 Numpy 数组。

get_random_transform

get_random_transform(img_shape, seed=None)

为转换生成随机参数。

参数
  • seed: 随机种子
  • img_shape: 整数元组。被转换的图像的尺寸。
返回

包含随机选择的描述变换的参数的字典。

random_transform

random_transform(x, seed=None)

将随机变换应用于图像。

参数
  • x: 3D 张量,单张图像。
  • seed: 随机种子。
返回

输入的随机转换版本(相同形状)。

standardize

standardize(x)

将标准化配置应用于一批输入。

参数
  • x: 需要标准化的一批输入。
返回

标准化后的输入。

  • 1
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Keras:基于Theano和TensorFlow的深度学习库 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快 速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换 Keras适用的Python版本是:Python 2.7-3.5 Keras的设计原则是 模块性:模型可理解为一个独立的序列或图,完全可配置的模块以最少的代价自由组合在一起。具 体而言,网络层、损失函数、优化器、初始化策略、激活函数、正则化方法都是独立的模块,你可 以使用它们来构建自己的模型。 极简主义:每个模块都应该尽量的简洁。每一段代码都应该在初次阅读时都显得直观易懂。没有黑 魔法,因为它将给迭代和创新带来麻烦。 易扩展性:添加新模块超级简单的容易,只需要仿照现有的模块编写新的或函数即可。创建新模 块的便利性使得Keras更适合于先进的研究工作。 与Python协作:Keras没有单独的模型配置文件型(作为对比,caffe有),模型由python代码描 述,使其更紧凑和更易debug,并提供了扩展的便利性。 Keras从2015年3月开始启动,经过一年多的开发,目前Keras进入了1.0的时代。Keras 1.0依然遵循相 同的设计原则,但与之前的版本相比有很大的不同。如果你曾经使用过此前的其他版本Keras。你或许 会关心1.0的新特性。 泛型模型:简单和强大的新模块,用于支持复杂深度学习模型的搭建。 更优秀的性能:现在,Keras模型的编译时间得到缩短。所有的RNN现在都可以用两种方式实现, Keras中文文档 以供用户在不同配置任务和配置环境下取得最大性能。现在,基于Theano的RNN也可以被展开, 以获得大概25%的加速计算。 测量指标:现在,你可以提供一系列的测量指标来在Keras的任何监测点观察模型性能。 更优的用户体验:我们面向使用者重新编写了代码,使得函数API更简单易记,同时提供更有效的 出错信息。 新版本的Keras提供了Lambda层,以实现一些简单的计算任务。 ... 如果你已经基于Keras0.3编写了自己的层,那么在升级后,你需要为自己的代码做以下调整,以 在Keras1.0上继续运行。请参考编写自己的层 关于Keras-cn 本文档是Keras文档的中文版,包括keras.io的全部内容,以及更多的例子、解释和建议,目前,文档 的计划是: 1.x版本:现有keras.io文档的中文翻译,保持与官方文档的同步 2.x版本:完善所有【Tips】模块,澄清深度学习中的相关概念和Keras模块的使用方法 3.x版本:增加Keras相关模块的实现原理和部分细节,帮助用户更准确的把握Keras,并添加更多 的示例代码 现在,keras-cn的版本号将简单的跟随最新的keras release版本 由于作者水平和研究方向所限,无法对所有模块都非常精通,因此文档中不可避免的会出现各种错误、 疏漏和不足之处。如果您在使用过程中有任何意见、建议和疑问,欢迎发送邮件 到[email protected]与我取得联系。 您对文档的任何贡献,包括文档的翻译、查缺补漏、概念解释、发现和修改问题、贡献示例程序等,均 会被记录在致谢,十分感谢您对Keras中文文档的贡献! 同时,也欢迎您撰文向本文档投稿,您的稿件被录用后将以单独的页面显示在网站中,您有权在您的网 页下设置赞助二维码,以获取来自网友的小额赞助。 如果你发现本文档缺失了官方文档的部分内容,请积极联系我补充。 本文档相对于原文档有更多的使用指导和概念澄清,请在使用时关注文档中的Tips,特别的,本文档的 额外模块还有: 一些基本概念:位于快速开始模块的一些基本概念简单介绍了使用Keras前需要知道的一些小知 识,新手在使用前应该先阅读本部分的文档。 Keras安装和配置指南,提供了详细的Linux和Windows下Keras的安装和配置步骤。 深度学习Keras:位于导航栏最下方的该模块翻译了来自Keras作者博客keras.io和其他Keras相关 博客的文章,该栏目的文章提供了对深度学习的理解和大量使用Keras的例子,您也可以向这个栏 目投稿。 所有的文章均在醒目位置标志标明来源与作者,本文档对该栏目文章的原文不具有任何处 置权。如您仍觉不妥,请联系本人([email protected])删除。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值