上一篇文章介绍了使用Python机器学习库Keras加载MNIST手写数字数据集、ImageDataGenerator类进行图像处理的一般步骤。本文接着对ImageDataGenerator类进行介绍,主要包括ImageDataGenerator类做图像归一化、中心化。
引言
本系列教程分为五个部分, 分别如下所示。上一篇文章介绍了第一、二部分,本文将主要讲解第三、四部分。
MNIST手写图像数据集ImageDataGenerator类介绍使用ImageDataGenerator进行图像归一化使用ImageDataGenerator进行图像中心化使用ImageDataGenerator进行图像标准化
ImageDataGenerator类进行图像归一化
图像归一化是指将图像中每个像素的范围缩放到0-1之间。
ImageDataGenerator类能够很方便地将图像像素值从0-255重新缩放到0-1,然后再作为训练数据,输入神经网络模型。具体来说,可以通过将rescale参数实现,这个参数指的是每个像素需要缩放的比例,此处设为1/255。
具体代码如下:
接下来,可以为训练数据和测试数据生成迭代器。设置batch_size=64,表示每组数据由64张图片组成。
然后,打印第一批缩放图像的最大和最小像素值,以验证成功执行了图像归一化。
最后,可以用这些归一化后的图像来拟合和评估模型,下面代码定义了一个简单的卷积神经网络模型,设置epochs=5,表示训练5次,每次大概有60000 / 64 = 938个batchs。
如下所示为上述所有过程的完整代码。
ImageDataGenerator类进行图像中心化
图像中心化指的是将图像每个像素减去平均像素。由于这种操作会使得新图片的平均像素为0,所以叫做图像中心化。
ImageDataGenerator类可以在整个训练数据集计算平均值,并将所有图片的像素减去这个平均值。实现这个过程非常简单,只需要指定featurewise_center参数为True即可。具体代码如下所示:
也可以在计算每张图片的平均值,并将图片的像素减去其自身的像素平均值。只需要指定samplewise_center参数为True即可。具体代码如下所示:
另外,还可以只计算每个batch上图片的像素平均值。具体代码如下所示:
下面代码是计算整个训练数据集的平均值,然后对图片做中心化处理,并作为训练数据训练神经网络模型。
小结
通过阅读本文,你应该学会了以下知识:
使用ImageDataGenerator进行图像归一化使用ImageDataGenerator进行图像中心化基于ImageDataGenerator处理后的图像数据训练神经网络模型