学习内容:MindSpore提供不同种类的数据变换
通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。
mindspore.dataset提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。下面分别对其进行介绍。
1.Common Transforms
mindspore.dataset.transforms模块支持一系列通用Transforms,用于通用数据增强,其中一部分增强操作是用C++实现的,具有较好的高性能,另一部分是基于Python实现,使用了NumPy模块作为支持。
在API示例中,常用的模块导入方法如下:
import mindspore.dataset as ds
import mindspore.dataset.transforms as transforms
mindspore.dataset.transforms.Compose | 将多个数据增强操作组合使用。 |
---|---|
mindspore.dataset.transforms.Concatenate | 在输入数据的某一个轴上进行数组拼接,目前仅支持拼接形状为1D的数组。 |
mindspore.dataset.transforms.Duplicate | 将输入的数据列复制得到新的数据列,每次仅可以输入1个数据列进行复制。 |
mindspore.dataset.transforms.Mask | 用给条件判断输入Tensor的内容,并返回一个掩码Tensor。 |
mindspore.dataset.transforms.Fill | 将Tensor的所有元素都赋值为指定的值。 |
mindspore.dataset.transforms.Onehot | 对输入标签进行OneHot编码。 |
mindspore.dataset.transforms.PadEnd | 对输入Tensor进行填充,要求 pad_shape 与输入Tensor的维度保持一致。 |
mindspore.dataset.transforms.RandomApply | 指定一组数据增强处理及其被应用的概率,在运算时按概率随机应用其中的增强处理。 |
mindspore.dataset.transforms.RandomChoice | 从一组数据增强变换中随机选择一个进行应用。 |
mindspore.dataset.transforms.RandomOrder | 给一个数据增强的列表,随机打乱数据增强处理的顺序。 |
mindspore.dataset.transforms.Slice | 对输入进行切片。 |
mindspore.dataset.transforms.TypeCast | 将输入的Tensor转换为指定的数据类型。 |
mindspore.dataset.transforms.Unique | 对输入张量进行唯一运算,每次只支持对一个数据列进行变换。 |
这里我们以Compose为例,介绍其使用方式。
Compose接收一个数据增强操作序列,然后将其组合成单个数据增强操作。我们仍基于Mnist数据集呈现Transforms的应用效果。
# Download data from open datasets
url = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/" \
"notebook/datasets/MNIST_Data.zip"
path = download(url, "./", kind="zip", replace=True)
train_dataset = MnistDataset('MNIST_Data/train')
初始数据集中Imageshape
执行compose操作之后,Image.shape发生了改变
composed = transforms.Compose(
[
vision.Rescale(1.0 / 255.0, 0),
vision.Normalize(mean=(0.1307,), std=(0.3081,)),
vision.HWC2CHW()
]
)
2.Vision Transforms
mindspore.dataset.vision模块提供一系列针对图像数据的Transforms。在Mnist数据处理过程中,使用了Rescale、Normalize和HWC2CHW变换。下面对其进行详述。
Rescale变换用于调整图像像素值的大小
包括两个参数: rescale:缩放因子,shift:平移因子。
图像的每个像素将根据这两个参数进行调整,输出的像素值为 𝑜𝑢𝑡𝑝𝑢𝑡𝑖=𝑖𝑛𝑝𝑢𝑡𝑖∗𝑟𝑒𝑠𝑐𝑎𝑙𝑒+𝑠ℎ𝑖𝑓𝑡
这里我们先使用numpy随机生成一个像素值在[0, 255]的图像,将其像素值进行缩放。
Normalize变换用于对输入图像的归一化,包括三个参数:
- mean:图像每个通道的均值。
- std:图像每个通道的标准差。
- is_hwc:bool值,输入图像的格式。True为(height, width, channel),False为(channel, height, width)。
图像的每个通道将根据mean和std进行调整,计算公式为 𝑜𝑢𝑡𝑝𝑢𝑡𝑐=𝑖𝑛𝑝𝑢𝑡𝑐−𝑚𝑒𝑎𝑛𝑐𝑠𝑡𝑑𝑐
,其中 𝑐代表通道索引。
HWC2CHW变换用于转换图像格式
在不同的硬件设备中可能会对(height, width, channel)或(channel, height, width)两种不同格式有针对性优化。MindSpore设置HWC为默认图像格式,在有CHW格式需求时,可使用该变换进行处理。
- 这里我们先将前文中normalized_image处理为HWC格式,然后进行转换。可以看到转换前后的shape发生了变化。
3.Text Transforms
mindspore.dataset.text模块提供一系列针对文本数据的Transforms。与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。这里简单介绍其使用方法。
- PythonTokenizer:分词(Tokenize)操作是文本数据的基础处理方法,MindSpore提供多种不同的Tokenizer。这里我们选择基础的PythonTokenizer举例,此Tokenizer允许用户自由实现分词策略。随后我们利用map操作将此分词器应用到输入的文本中,对其进行分词。
def my_tokenizer(content):
return content.split()
test_dataset = test_dataset.map(text.PythonTokenizer(my_tokenizer))
print(next(test_dataset.create_tuple_iterator()))
- Lookup:为词表映射变换,用来将Token转换为Index。在使用Lookup前,需要构造词表,一般可以加载已有的词表,或使用Vocab生成词表。这里我们选择使用Vocab.from_dataset方法从数据集中生成词表。
vocab = text.Vocab.from_dataset(test_dataset)
获得词表后我们可以使用vocab方法查看词表。
print(vocab.vocab())
生成词表后,可以配合map方法进行词表映射变换,将Token转为Index。
test_dataset = test_dataset.map(text.Lookup(vocab))
print(next(test_dataset.create_tuple_iterator()))
4.Lambda Transforms
Lambda函数是一种不需要名字、由一个单独表达式组成的匿名函数,表达式会在调用时被求值。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。