Keras Image Data Augmentation 各参数详解

原文链接:https://blog.csdn.net/mieleizhi0522/article/details/80600358

图像深度学习任务中,面对小数据集,我们往往需要利用Image Data Augmentation图像增广技术来扩充我们的数据集,而keras的内置ImageDataGenerator很好地帮我们实现图像增广。但是面对ImageDataGenerator中众多的参数,每个参数所得到的效果分别是怎样的呢?本文针对Keras中ImageDataGenerator的各项参数数值的效果进行了详细解释,为各位深度学习研究者们提供一个参考。

我们先来看看ImageDataGenerator的官方说明:


    
    
  1. keras.preprocessing.image.ImageDataGenerator(featurewise_center=False,
  2. samplewise_center=False,
  3. featurewise_std_normalization=False,
  4. samplewise_std_normalization=False,
  5. zca_whitening=False,
  6. zca_epsilon=1e-6,
  7. rotation_range=0.,
  8. width_shift_range=0.,
  9. height_shift_range=0.,
  10. shear_range=0.,
  11. zoom_range=0.,
  12. channel_shift_range=0.,
  13. fill_mode='nearest',
  14. cval=0.,
  15. horizontal_flip=False,
  16. vertical_flip=False,
  17. rescale=None,
  18. preprocessing_function=None,
  19. data_format=K.image_data_format())


官方提供的参数解释因为太长就不贴出来了,大家可以直接点开上面的链接看英文原介绍,我们现在就从每一个参数开始看看它会带来何种效果。

我们测试选用的是kaggle dogs vs cats redux 猫狗大战的数据集,随机选取了9张狗狗的照片,这9张均被resize成224×224的尺寸,如图1:

图1

1. featurewise


    
    
  1. datagen = image.ImageDataGenerator(featurewise_center=True,
  2. featurewise_std_normalization=True)

featurewise_center的官方解释:"Set input mean to 0 over the dataset, feature-wise." 大意为使数据集去中心化(使得其均值为0),而samplewise_std_normalization的官方解释是“ Divide inputs by std of the dataset, feature-wise.”,大意为将输入的每个样本除以其自身的标准差。这两个参数都是从数据集整体上对每张图片进行标准化处理,我们看看效果如何:

图2

与图1原图相比,经过处理后的图片在视觉上稍微“变暗”了一点。

2. samplewise


    
    
  1. datagen = image.ImageDataGenerator(samplewise_center=True,
  2. samplewise_std_normalization=True)

samplewise_center的官方解释为:“ Set each sample mean to 0.”,使输入数据的每个样本均值为0;samplewise_std_normalization的官方解释为:“Divide each input by its std.”,将输入的每个样本除以其自身的标准差。这个月featurewise的处理不同,featurewise是从整个数据集的分布去考虑的,而samplewise只是针对自身图片,效果如图3:

图3

看来针对自身数据分布的处理在猫狗大战数据集上没有什么意义,或许在mnist这类灰度图上有用?读者可以试试。

3. zca_whtening

datagen = image.ImageDataGenerator(zca_whitening=True)

    
    

zca白化的作用是针对图片进行PCA降维操作,减少图片的冗余信息,保留最重要的特征,细节可参看:Whitening transformation--维基百科Whitening--斯坦福

很抱歉的是,本人使用keras的官方演示代码,并没有复现出zca_whitening的效果,当我的图片resize成224×224时,代码报内存错误,应该是在计算SVD的过程中数值太大。后来resize成28×28,就没有内存错误了,但是代码运行了一晚上都不结束,因此使用猫狗大战图片无法复现效果,这里转发另外一个博客使用mnist复现出的结果,如下图4。针对mnist的其它DataAugmentation结果可以看这个博客:Image Augmentation for Deep Learning With Keras,有修改意见的朋友欢迎留言。

图4

4. rotation range

datagen = image.ImageDataGenerator(rotation_range=30)

    
    

rotation range的作用是用户指定旋转角度范围,其参数只需指定一个整数即可,但并不是固定以这个角度进行旋转,而是在 [0, 指定角度] 范围内进行随机角度旋转。效果如图5:

图5

5. width_shift_range & height_shift_range

datagen = image.ImageDataGenerator(width_shift_range=0.5,height_shift_range=0.5)

    
    

width_shift_range & height_shift_range 分别是水平位置评议和上下位置平移,其参数可以是[0, 1]的浮点数,也可以大于1,其最大平移距离为图片长或宽的尺寸乘以参数,同样平移距离并不固定为最大平移距离,平移距离在 [0, 最大平移距离] 区间内。效果如图6:

图6

平移图片的时候一般会出现超出原图范围的区域,这部分区域会根据fill_mode的参数来补全,具体参数看下文。当参数设置过大时,会出现图7的情况,因此尽量不要设置太大的数值。

图7

6. shear_range

datagen = image.ImageDataGenerator(shear_range=0.5)

    
    

shear_range就是错切变换,效果就是让所有点的x坐标(或者y坐标)保持不变,而对应的y坐标(或者x坐标)则按比例发生平移,且平移的大小和该点到x轴(或y轴)的垂直距离成正比。

如图8所示,一个黑色矩形图案变换为蓝色平行四边形图案。狗狗图片变换效果如图9所示。

图8 图9

7. zoom_range

datagen = image.ImageDataGenerator(zoom_range=0.5)

    
    

zoom_range参数可以让图片在长或宽的方向进行放大,可以理解为某方向的resize,因此这个参数可以是一个数或者是一个list。当给出一个数时,图片同时在长宽两个方向进行同等程度的放缩操作;当给出一个list时,则代表[width_zoom_range, height_zoom_range],即分别对长宽进行不同程度的放缩。而参数大于0小于1时,执行的是放大操作,当参数大于1时,执行的是缩小操作。

参数大于0小于1时,效果如图10:

图10

参数等于4时,效果如图11:

图11

8. channel_shift_range

datagen = image.ImageDataGenerator(channel_shift_range=10)

    
    

channel_shift_range可以理解成改变图片的颜色,通过对颜色通道的数值偏移,改变图片的整体的颜色,这意味着是“整张图”呈现某一种颜色,像是加了一块有色玻璃在图片前面一样,因此它并不能单独改变图片某一元素的颜色,如黑色小狗不能变成白色小狗。当数值为10时,效果如图12;当数值为100时,效果如图13,可见当数值越大时,颜色变深的效果越强。

图12 图13

9. horizontal_flip & vertical_flip

datagen = image.ImageDataGenerator(horizontal_flip=True)

    
    

horizontal_flip的作用是随机对图片执行水平翻转操作,意味着不一定对所有图片都会执行水平翻转,每次生成均是随机选取图片进行翻转。效果如图14。

图14
datagen = image.ImageDataGenerator(vertical_flip=True)

    
    

vertical_flip是作用是对图片执行上下翻转操作,和horizontal_flip一样,每次生成均是随机选取图片进行翻转,效果如图15。

图15

当然了,在猫狗大战数据集当中不适合使用vertical_flip,因为一般没有倒过来的动物。

10. rescale

datagen = image.ImageDataGenerator(rescale= 1/255, width_shift_range=0.1)

    
    

rescale的作用是对图片的每个像素值均乘上这个放缩因子,这个操作在所有其它变换操作之前执行,在一些模型当中,直接输入原图的像素值可能会落入激活函数的“死亡区”,因此设置放缩因子为1/255,把像素值放缩到0和1之间有利于模型的收敛,避免神经元“死亡”。

图片经过rescale之后,保存到本地的图片用肉眼看是没有任何区别的,如果我们在内存中直接打印图片的数值,可以看到以下结果:

图16

可以从图16看到,图片像素值都被缩小到0和1之间,但如果打开保存在本地的图片,其数值依然不变,如图17。

图17

应该是在保存到本地的时候,keras把图像像素值恢复为原来的尺度了,在内存中查看则不会。

11. fill_mode

datagen = image.ImageDataGenerator(fill_mode='wrap', zoom_range=[4, 4])

    
    

fill_mode为填充模式,如前面提到,当对图片进行平移、放缩、错切等操作时,图片中会出现一些缺失的地方,那这些缺失的地方该用什么方式补全呢?就由fill_mode中的参数确定,包括:“constant”、“nearest”(默认)、“reflect”和“wrap”。这四种填充方式的效果对比如图18所示,从左到右,从上到下分别为:“reflect”、“wrap”、“nearest”、“constant”。

图18

当设置为“constant”时,还有一个可选参数,cval,代表使用某个固定数值的颜色来进行填充。图19为cval=100时的效果,可以与图18右下角的无cval参数的图对比。

图19

自己动手来测试?

这里给出一段小小的代码,作为进行这些参数调试时的代码,你也可以使用jupyter notebook来试验这些参数,把图片结果打印到你的网页上。


    
    
  1. %matplotlib inline
  2. import matplotlib.pyplot as plt
  3. from PIL import Image
  4. from keras.preprocessing import image
  5. import glob
  6. # 设置生成器参数
  7. datagen = image.ImageDataGenerator(fill_mode='wrap', zoom_range=[4, 4])
  8. gen_data = datagen.flow_from_directory(PATH,
  9. batch_size=1,
  10. shuffle=False,
  11. save_to_dir=SAVE_PATH,
  12. save_prefix='gen',
  13. target_size=(224, 224))
  14. # 生成9张图
  15. for i in range(9):
  16. gen_data.next()
  17. # 找到本地生成图,把9张图打印到同一张figure上
  18. name_list = glob.glob(gen_path+'16/*')
  19. fig = plt.figure()
  20. for i in range(9):
  21. img = Image.open(name_list[i])
  22. sub_img = fig.add_subplot(331 + i)
  23. sub_img.imshow(img)
  24. plt.show()


结语

面对小数据集时,使用DataAugmentation扩充你的数据集就变得非常重要,但在使用DataAugmentation之前,先要了解你的数据集需不需要这类图片,如猫狗大战数据集不需要上下翻转的图片,以及思考一下变换的程度是不是合理的,例如把目标水平偏移到图像外面就是不合理的。多试几次效果,再最终确定使用哪些参数。上面所有内容已经公布在我的github上面,附上了实验时的jupyter notebook文件,大家可以玩一玩,have fun!

看看这个函数的官网介绍:

图片预处理

图片生成器ImageDataGenerator


     
     
  1. keras.preprocessing.image.ImageDataGenerator(featurewise_center= False,
  2. samplewise_center= False,
  3. featurewise_std_normalization= False,
  4. samplewise_std_normalization= False,
  5. zca_whitening= False,
  6. zca_epsilon= 1e-6,
  7. rotation_range= 0.,
  8. width_shift_range= 0.,
  9. height_shift_range= 0.,
  10. shear_range= 0.,
  11. zoom_range= 0.,
  12. channel_shift_range= 0.,
  13. fill_mode= 'nearest',
  14. cval= 0.,
  15. horizontal_flip= False,
  16. vertical_flip= False,
  17. rescale= None,
  18. preprocessing_function= None,
  19. data_format=K.image_data_format())

用以生成一个batch的图像数据,支持实时数据提升。训练时该函数会无限生成数据,直到达到规定的epoch次数为止。

参数

  • featurewise_center:布尔值,使输入数据集去中心化(均值为0), 按feature执行

  • samplewise_center:布尔值,使输入数据的每个样本均值为0

  • featurewise_std_normalization:布尔值,将输入除以数据集的标准差以完成标准化, 按feature执行

  • samplewise_std_normalization:布尔值,将输入的每个样本除以其自身的标准差

  • zca_whitening:布尔值,对输入数据施加ZCA白化

  • zca_epsilon: ZCA使用的eposilon,默认1e-6

  • rotation_range:整数,数据提升时图片随机转动的角度

  • width_shift_range:浮点数,图片宽度的某个比例,数据提升时图片水平偏移的幅度

  • height_shift_range:浮点数,图片高度的某个比例,数据提升时图片竖直偏移的幅度

  • shear_range:浮点数,剪切强度(逆时针方向的剪切变换角度)

  • zoom_range:浮点数或形如[lower,upper]的列表,随机缩放的幅度,若为浮点数,则相当于[lower,upper] = [1 - zoom_range, 1+zoom_range]

  • channel_shift_range:浮点数,随机通道偏移的幅度

  • fill_mode:;‘constant’,‘nearest’,‘reflect’或‘wrap’之一,当进行变换时超出边界的点将根据本参数给定的方法进行处理

  • cval:浮点数或整数,当fill_mode=constant时,指定要向超出边界的点填充的值

  • horizontal_flip:布尔值,进行随机水平翻转

  • vertical_flip:布尔值,进行随机竖直翻转

  • rescale: 重放缩因子,默认为None. 如果为None或0则不进行放缩,否则会将该数值乘到数据上(在应用其他变换之前)

  • preprocessing_function: 将被应用于每个输入的函数。该函数将在图片缩放和数据提升之后运行。该函数接受一个参数,为一张图片(秩为3的numpy array),并且输出一个具有相同shape的numpy array

  • data_format:字符串,“channel_first”或“channel_last”之一,代表图像的通道维的位置。该参数是Keras 1.x中的image_dim_ordering,“channel_last”对应原本的“tf”,“channel_first”对应原本的“th”。以128x128的RGB图像为例,“channel_first”应将数据组织为(3,128,128),而“channel_last”应将数据组织为(128,128,3)。该参数的默认值是~/.keras/keras.json中设置的值,若从未设置过,则为“channel_last”


方法

  • fit(x, augment=False, rounds=1):计算依赖于数据的变换所需要的统计信息(均值方差等),只有使用featurewise_centerfeaturewise_std_normalizationzca_whitening时需要此函数。

    • X:numpy array,样本数据,秩应为4.在黑白图像的情况下channel轴的值为1,在彩色图像情况下值为3

    • augment:布尔值,确定是否使用随即提升过的数据

    • round:若设augment=True,确定要在数据上进行多少轮数据提升,默认值为1

    • seed: 整数,随机数种子

  • flow(self, X, y, batch_size=32, shuffle=True, seed=None, save_to_dir=None, save_prefix='', save_format='png'):接收numpy数组和标签为参数,生成经过数据提升或标准化后的batch数据,并在一个无限循环中不断的返回batch数据

    • x:样本数据,秩应为4.在黑白图像的情况下channel轴的值为1,在彩色图像情况下值为3

    • y:标签

    • batch_size:整数,默认32

    • shuffle:布尔值,是否随机打乱数据,默认为True

    • save_to_dir:None或字符串,该参数能让你将提升后的图片保存起来,用以可视化

    • save_prefix:字符串,保存提升后图片时使用的前缀, 仅当设置了save_to_dir时生效

    • save_format:"png"或"jpeg"之一,指定保存图片的数据格式,默认"jpeg"

    • yields:形如(x,y)的tuple,x是代表图像数据的numpy数组.y是代表标签的numpy数组.该迭代器无限循环.

    • seed: 整数,随机数种子

  • flow_from_directory(directory): 以文件夹路径为参数,生成经过数据提升/归一化后的数据,在一个无限循环中无限产生batch数据

    • directory: 目标文件夹路径,对于每一个类,该文件夹都要包含一个子文件夹.子文件夹中任何JPG、PNG、BNP、PPM的图片都会被生成器使用.详情请查看此脚本
    • target_size: 整数tuple,默认为(256, 256). 图像将被resize成该尺寸
    • color_mode: 颜色模式,为"grayscale","rgb"之一,默认为"rgb".代表这些图片是否会被转换为单通道或三通道的图片.
    • classes: 可选参数,为子文件夹的列表,如['dogs','cats']默认为None. 若未提供,则该类别列表将从directory下的子文件夹名称/结构自动推断。每一个子文件夹都会被认为是一个新的类。(类别的顺序将按照字母表顺序映射到标签值)。通过属性class_indices可获得文件夹名与类的序号的对应字典。
    • class_mode: "categorical", "binary", "sparse"或None之一. 默认为"categorical. 该参数决定了返回的标签数组的形式, "categorical"会返回2D的one-hot编码标签,"binary"返回1D的二值标签."sparse"返回1D的整数标签,如果为None则不返回任何标签, 生成器将仅仅生成batch数据, 这种情况在使用model.predict_generator()model.evaluate_generator()等函数时会用到.
    • batch_size: batch数据的大小,默认32
    • shuffle: 是否打乱数据,默认为True
    • seed: 可选参数,打乱数据和进行变换时的随机数种子
    • save_to_dir: None或字符串,该参数能让你将提升后的图片保存起来,用以可视化
    • save_prefix:字符串,保存提升后图片时使用的前缀, 仅当设置了save_to_dir时生效
    • save_format:"png"或"jpeg"之一,指定保存图片的数据格式,默认"jpeg"
    • flollow_links: 是否访问子文件夹中的软链接

例子

使用.flow()的例子


     
     
  1. (x_train, y_train), (x_test, y_test) = cifar10.load_data()
  2. y_train = np_utils.to_categorical(y_train, num_classes)
  3. y_test = np_utils.to_categorical(y_test, num_classes)
  4. datagen = ImageDataGenerator(
  5. featurewise_center= True,
  6. featurewise_std_normalization= True,
  7. rotation_range= 20,
  8. width_shift_range= 0.2,
  9. height_shift_range= 0.2,
  10. horizontal_flip= True)
  11. # compute quantities required for featurewise normalization
  12. # (std, mean, and principal components if ZCA whitening is applied)
  13. datagen.fit(x_train)
  14. # fits the model on batches with real-time data augmentation:
  15. model.fit_generator(datagen.flow(x_train, y_train, batch_size= 32),
  16. steps_per_epoch=len(x_train), epochs=epochs)
  17. # here's a more "manual" example
  18. for e in range(epochs):
  19. print 'Epoch', e
  20. batches = 0
  21. for x_batch, y_batch in datagen.flow(x_train, y_train, batch_size= 32):
  22. loss = model.train(x_batch, y_batch)
  23. batches += 1
  24. if batches >= len(x_train) / 32:
  25. # we need to break the loop by hand because
  26. # the generator loops indefinitely
  27. break

使用.flow_from_directory(directory)的例子


     
     
  1. train_datagen = ImageDataGenerator(
  2. rescale= 1./ 255,
  3. shear_range= 0.2,
  4. zoom_range= 0.2,
  5. horizontal_flip= True)
  6. test_datagen = ImageDataGenerator(rescale= 1./ 255)
  7. train_generator = train_datagen.flow_from_directory(
  8. 'data/train',
  9. target_size=( 150, 150),
  10. batch_size= 32,
  11. class_mode= 'binary')
  12. validation_generator = test_datagen.flow_from_directory(
  13. 'data/validation',
  14. target_size=( 150, 150),
  15. batch_size= 32,
  16. class_mode= 'binary')
  17. model.fit_generator(
  18. train_generator,
  19. steps_per_epoch= 2000,
  20. epochs= 50,
  21. validation_data=validation_generator,
  22. validation_steps= 800)

同时变换图像和mask


     
     
  1. # we create two instances with the same arguments
  2. data_gen_args = dict(featurewise_center= True,
  3. featurewise_std_normalization= True,
  4. rotation_range= 90.,
  5. width_shift_range= 0.1,
  6. height_shift_range= 0.1,
  7. zoom_range= 0.2)
  8. image_datagen = ImageDataGenerator(**data_gen_args)
  9. mask_datagen = ImageDataGenerator(**data_gen_args)
  10. # Provide the same seed and keyword arguments to the fit and flow methods
  11. seed = 1
  12. image_datagen.fit(images, augment= True, seed=seed)
  13. mask_datagen.fit(masks, augment= True, seed=seed)
  14. image_generator = image_datagen.flow_from_directory(
  15. 'data/images',
  16. class_mode= None,
  17. seed=seed)
  18. mask_generator = mask_datagen.flow_from_directory(
  19. 'data/masks',
  20. class_mode= None,
  21. seed=seed)
  22. # combine generators into one which yields image and masks
  23. train_generator = zip(image_generator, mask_generator)
  24. model.fit_generator(
  25. train_generator,
  26. steps_per_epoch= 2000,
  27. epochs= 50)


看看别人用的例子:


   
   
  1. from keras.preprocessing.image import ImageDataGenerator, array_to_img, img_to_array, load_img
  2. datagen = ImageDataGenerator(
  3. rotation_range= 40,
  4. width_shift_range= 0.2,
  5. height_shift_range= 0.2,
  6. shear_range= 0.2,
  7. zoom_range= 0.2,
  8. horizontal_flip= True,
  9. fill_mode= 'nearest')
  10. img = load_img( 'data/cat.jpg') # 这是一个PIL图像
  11. x = img_to_array(img) # 把PIL图像转换成一个numpy数组,形状为(3, 150, 150)
  12. x = x.reshape(( 1,) + x.shape) # 这是一个numpy数组,形状为 (1, 3, 150, 150)
  13. # 下面是生产图片的代码
  14. # 生产的所有图片保存在 `preview/` 目录下
  15. i = 0
  16. for batch in datagen.flow(x, batch_size= 1,
  17. save_to_dir= 'preview', save_prefix= 'cat', save_format= 'jpeg'):
  18. i += 1
  19. if i > 50:
  20. break # 否则生成器会退出循环
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值