keras数据增强方法

简介

在深度学习中,为了避免出现过拟合(Overfitting),通常我们需要输入充足的数据量。当数据量不够大时候,常常采用以下几种方法:

  • Data Augmentation:通过平移、 翻转、加噪声等方法从已有数据中创造出一批“新”的数据,人工增加训练集的大小。

  • Regularization:数据量比较小会导致模型过拟合, 使得训练误差很小而测试误差特别大. 通过在Loss Function 后面加上正则项可以抑制过拟合的产生。缺点是引入了一个需要手动调整的hyper-parameter。

  • Dropout:这也是一种正则化手段,不过跟以上不同的是它通过随机将部分神经元的输出置零来实现。详见 http://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf

  • Unsupervised Pre-training:用Auto-Encoder或者RBM的卷积形式一层一层地做无监督预训练, 最后加上分类层做有监督的Fine-Tuning。参考 http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.207.1102&rep=rep1&type=pdf

  • Transfer Learning:在某些情况下,训练集的收集可能非常困难或代价高昂。因此,有必要创造出某种高性能学习机(learner),使得它们能够基于从其他领域易于获得的数据上进行训练,并能够在对另一领域的数据进行预测时表现优异。这种方法,就是所谓的迁移学习(transfer learning)。

数据增强(Data Augmentation)

  • 旋转 | 仿射变换(Rotation/reflection): 随机旋转图像一定角度; 改变图像内容的朝向;
  • 翻转变换(flip): 沿着水平或者垂直方向翻转图像;
  • 缩放变换(zoom): 按照一定的比例放大或者缩小图像;
  • 平移变换(shift): 在图像平面上对图像以一定方式进行平移;可以采用随机或人为定义的方式指定平移范围和平移步长, 沿水平或竖直方向进行平移. 改变图像内容的位置;
  • 尺度变换(scale): 对图像按照指定的尺度因子, 进行放大或缩小; 或者参照SIFT特征提取思想, 利用指定的尺度因子对图像滤波构造尺度空间. 改变图像内容的大小或模糊程度;
  • 对比度变换(contrast): 在图像的HSV颜色空间,改变饱和度S和V亮度分量,保持色调H不变. 对每个像素的S和V分量进行指数运算(指数因子在0.25到4之间), 增加光照变化;
  • 噪声扰动(noise): 对图像的每个像素RGB进行随机扰动, 常用的噪声模式是椒盐噪声和高斯噪声;
  • 颜色变换(color): 在训练集像素值的RGB颜色空间进行PCA。
  • 添加图象mask:将不同图象的目标mask加入当前图像中

keras数据增强接口

Keras中ImageDataGenerator 实现了大多数上文中提到的图像几何变换方法。如下:

keras.preprocessing.image.ImageDataGenerator(featurewise_center=False,
    samplewise_center=False,
    featurewise_std_normalization=False,
    samplewise_std_normalization=False,
    zca_whitening=False,
    rotation_range=0.,
    width_shift_range=0.,
    height_shift_range=0.,
    shear_range=0.,
    zoom_range=0.,
    channel_shift_range=0.,
    fill_mode='nearest',
    cval=0.,
    horizontal_flip=False,
    vertical_flip=False,
    rescale=None,
    dim_ordering=K.image_dim_ordering())

参数

  • featurewise_center: Boolean. Set input mean to 0 over the dataset, feature-wise.
  • featurewise_std_normalization: Boolean. Divide inputs by std of the dataset, feature-wise.
  • zca_whitening: Boolean. Apply ZCA whitening.
  • samplewise_std_normalization: Boolean. Divide each input by its std.
  • rotation_range:整数,数据提升时图片随机转动的角度
  • width_shift_range:浮点数,图片宽度的某个比例,数据提升时图片水平偏移的幅度`
  • height_shift_range:浮点数,图片高度的某个比例,数据提升时图片竖直偏移的幅度
  • rescale: 重放缩因子,默认为None. 如果为None或0则不进行放缩,否则会将该数值乘到数据上(在应用其他变换之前)
  • shear_range:浮点数,剪切强度(逆时针方向的剪切变换角度)
  • zoom_range:浮点数或形如[lower,upper]的列表,随机缩放的幅度,若为浮点数,则相当于[lower,upper] = [1 - zoom_range, 1+zoom_range]
  • fill_mode:‘constant’‘nearest’,‘reflect’或‘wrap’之一,当进行变换时超出边界的点将根据本参数给定的方法进行处理
  • cval:浮点数或整数,当fill_mode=constant时,指定要向超出边界的点填充的值
  • channel_shift_range: Float. Range for random channel shifts.
  • horizontal_flip:布尔值,进行随机水平翻转
  • vertical_flip:布尔值,进行随机竖直翻转
  • rescale: 重放缩因子,默认为None. 如果为None或0则不进行放缩,否则会将该数值乘到数据上(在应用其他变换之前

keras接口使用方法

  • flow函数定义:
    flow(self, X, y, batch_size=32, shuffle=True, seed=None, save_to_dir=None, save_prefix=”, save_format=’jpeg’):接收numpy数组和标签为参数,生成经过数据提升或标准化后的batch数据,并在一个无限循环中不断的返回batch数据。
  • 参数
    • X:样本数据,秩应为4.在黑白图像的情况下channel轴的值为1,在彩色图像情况下值为3
    • y:标签
    • batch_size:整数,默认32
    • shuffle:布尔值,是否随机打乱数据,默认为True
    • save_to_dir:None或字符串,该参数能让你将提升后的图片保存起来,用以可视化
    • save_prefix:字符串,保存提升后图片时使用的前缀, 仅当设置了save_to_dir时生效
    • save_format:”png”或”jpeg”之一,指定保存图片的数据格式,默认”jpeg”
    • yields:形如(x,y)的tuple,x是代表图像数据的numpy数组.y是代表标签的numpy数组.该迭代器无限循环.
    • seed: 整数,随机数种子
  • 使用
from keras.preprocessing.image import ImageDataGenerator, array_to_img, img_to_array, load_img

datagen = ImageDataGenerator(
        rotation_range=40,
        width_shift_range=0.2,
        height_shift_range=0.2,
        shear_range=0.2,
        zoom_range=0.2,
        horizontal_flip=True,
        fill_mode='nearest')

img = load_img('data/cat.jpg')  # 这是一个PIL图像
x = img_to_array(img)  # 把PIL图像转换成一个numpy数组,形状为(3, 150, 150)
x = x.reshape((1,) + x.shape)  # 这是一个numpy数组,形状为 (1, 3, 150, 150)

# 下面是生产图片的代码
# 生产的所有图片保存在 `preview/` 目录下
i = 0
for batch in datagen.flow(x, batch_size=1,
                          save_to_dir='preview', save_prefix='cat', save_format='jpeg'):
    i += 1
    if i > 50:
        break  # 否则生成器会退出循环
  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Keras中,有多种方法可以用来建立数据集。下面是一些常用的方法: 1. ImageDataGenerator类:用于加载图像数据集,并且可以进行数据增强等操作。常用于图像分类问题。 2. Sequence类:用于加载时序数据集,并且可以进行数据预处理等操作。常用于时序数据的预测问题。 3. TextVectorization类:用于加载文本数据集,并且可以进行文本向量化等操作。常用于文本分类问题。 4. Dataset类:用于加载通用数据集,并且可以进行数据预处理等操作。常用于自定义数据集的加载。 下面是一些常用的代码示例: 1. ImageDataGenerator类 ```python from keras.preprocessing.image import ImageDataGenerator # 加载ImageDataGenerator类 datagen = ImageDataGenerator(rescale=1./255, shear_range=0.2, zoom_range=0.2, horizontal_flip=True) # 加载数据集 train_generator = datagen.flow_from_directory('data/train', target_size=(224, 224), batch_size=32, class_mode='binary') ``` 这里的代码将训练集数据的路径设置为“data/train”,将图片的大小设置为224x224,将每个批次的大小设置为32,将问题设置为二分类问题。ImageDataGenerator类还设置了一些数据增强的参数。 2. Sequence类 ```python from keras.utils import Sequence class MySequence(Sequence): def __init__(self, x_set, y_set, batch_size): self.x, self.y = x_set, y_set self.batch_size = batch_size def __len__(self): return math.ceil(len(self.x) / self.batch_size) def __getitem__(self, idx): batch_x = self.x[idx * self.batch_size:(idx + 1) * self.batch_size] batch_y = self.y[idx * self.batch_size:(idx + 1) * self.batch_size] # 加载数据并进行预处理 # ... return batch_x, batch_y # 加载数据集 x_train, y_train = load_data('data/train') # 定义Sequence类 my_sequence = MySequence(x_train, y_train, batch_size=32) ``` 这里的代码定义了一个名为MySequence的Sequence类,并且将x_train和y_train传递给了MySequence类。MySequence类实现了__getitem__方法和__len__方法,用于加载数据并进行预处理等操作。 3. TextVectorization类 ```python from keras.layers.experimental.preprocessing import TextVectorization # 加载TextVectorization类 vectorizer = TextVectorization(max_tokens=1000, output_mode='int', output_sequence_length=100) # 加载数据集 train_text = ['This is a cat', 'This is a dog', 'This is a bird'] vectorizer.adapt(train_text) # 转换文本数据为整数序列 train_data = vectorizer(train_text) ``` 这里的代码将训练集数据设置为3个文本数据,使用TextVectorization类将文本数据向量化成整数序列,并且将序列长度设置为100。 4. Dataset类 ```python import tensorflow as tf # 加载数据集 train_data = tf.data.Dataset.from_tensor_slices((x_train, y_train)) # 数据预处理 train_data = train_data.shuffle(1000).batch(32) ``` 这里的代码使用Dataset类加载数据集,并且使用shuffle和batch方法进行数据预处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值