打开第5天,学习了解mindspore的数据变换处理。
通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map
方法传入,实现对指定数据列的处理。
mindspore.dataset
提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。下面分别对其进行介绍。
from mindspore.dataset import transforms, vision, text
from mindspore.dataset import GeneratorDataset, MnistDataset
1. Common Transforms
mindspore.dataset.transforms
模块支持一系列通用Transforms。以Compose
为例,介绍其使用方式。
Compose
接收一个数据增强操作序列,然后将其组合成单个数据增强操作。
# 加载原始数据集
train_dataset = MnistDataset('MNIST_Data/train')
image, label = next(train_dataset.create_tuple_iterator())
# 定义Compose操作序列
composed = transforms.Compose(
[
vision.Rescale(1.0 / 255.0, 0),
vision.Normalize(mean=(0.1307,), std=(0.3081,)),
vision.HWC2CHW()
]
)
# 使用定义的Compose增强序列预处理数据
train_dataset = train_dataset.map(composed, 'image')
image, label = next(train_dataset.create_tuple_iterator())
更多通用Transforms详见mindspore.dataset.transforms。
2. Vision Transforms
mindspore.dataset.vision
模块提供一系列针对图像数据的Transforms。
2.1 Rescale
Rescale
变换用于调整图像像素值的大小,包括两个参数:
-
rescale:缩放因子。
-
shift:平移因子。
图像的每个像素将根据这两个参数进行调整,输出的像素值为𝑜𝑢𝑡𝑝𝑢𝑡𝑖=𝑖𝑛𝑝𝑢𝑡𝑖∗𝑟𝑒𝑠𝑐𝑎𝑙𝑒+𝑠ℎ𝑖𝑓𝑡。
# 模拟构造一个图像数据
random_np = np.random.randint(0, 255, (48, 48), np.uint8)
random_image = Image.fromarray(random_np)
# 实例化一个Transform Rescale对象
rescale = vision.Rescale(1.0 / 255.0, 0)
# 调用对象进行数据处理
rescaled_image = rescale(random_image)
2.2 Normalize
Normalize变换用于对输入图像的归一化,包括三个参数:
-
mean:图像每个通道的均值。
-
std:图像每个通道的标准差。
-
is_hwc:bool值,输入图像的格式。True为(height, width, channel),False为(channel, height, width)。
图像的每个通道将根据mean
和std
进行调整,计算公式为𝑜𝑢𝑡𝑝𝑢𝑡𝑐=𝑖𝑛𝑝𝑢𝑡𝑐−𝑚𝑒𝑎𝑛𝑐𝑠𝑡𝑑𝑐,其中 𝑐代表通道索引。
normalize = vision.Normalize(mean=(0.1307,), std=(0.3081,))
normalized_image = normalize(rescaled_image)
2.3 HWC2CHW
HWC2CHW
变换用于转换图像格式。在不同的硬件设备中可能会对(height, width, channel)或(channel, height, width)两种不同格式有针对性优化。MindSpore设置HWC为默认图像格式,在有CHW格式需求时,可使用该变换进行处理。
3. Text Transforms
mindspore.dataset.text
模块提供一系列针对文本数据的Transforms。与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。
首先定义三段文本,作为待处理的数据,并使用GeneratorDataset
进行加载。
texts = ['Welcome to Beijing']
test_dataset = GeneratorDataset(texts, 'text')
3.1 PythonTokenizer
分词(Tokenize)操作是文本数据的基础处理方法,MindSpore提供多种不同的Tokenizer。这里我们选择基础的PythonTokenizer
举例,此Tokenizer允许用户自由实现分词策略。
def my_tokenizer(content):
return content.split()
test_dataset = test_dataset.map(text.PythonTokenizer(my_tokenizer))
print(next(test_dataset.create_tuple_iterator()))
3.2 Lookup
Lookup
为词表映射变换,用来将Token转换为Index。在使用Lookup
前,需要构造词表,一般可以加载已有的词表,或使用Vocab
生成词表。这里我们选择使用Vocab.from_dataset
方法从数据集中生成词表。
# 从数据集中生成词表
vocab = text.Vocab.from_dataset(test_dataset)
# 使用vocab方法查看词表
print(vocab.vocab())
# 配合map方法进行词表映射变换,将Token转为Index
test_dataset = test_dataset.map(text.Lookup(vocab))
4. Lambda Transforms
Lambda函数是一种不需要名字、由一个单独表达式组成的匿名函数,表达式会在调用时被求值。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。
5. 总结
对数据变换 Transforms的使用学习后,更深入地理解了如何使用MindSpore框架来高效地处理和准备深度学习模型所需的数据。
通过自定义数据变换,可以根据自己的需求来构建和优化数据处理流程,这对于处理特定类型的数据或实验设置非常有用。数据变换操作可以有助于更好地设计实验,通过不同的数据增强方法来提高模型的泛化能力。