Bootstrap

昇思25天学习打卡营第4天|数据变换 Transforms

一、数据变换是什么?

通常情况下,直接加载的原始数据并不能直接送入神经网络进行训练,此时我们需要对其进行数据预处理。MindSpore提供不同种类的数据变换(Transforms),配合数据处理Pipeline来实现数据预处理。所有的Transforms均可通过map方法传入,实现对指定数据列的处理。

mindspore.dataset提供了面向图像、文本、音频等不同数据类型的Transforms,同时也支持使用Lambda函数。

二、Common Transforms

mindspore.dataset.transforms模块支持一系列通用Transforms。这里我们以Compose为例,介绍其使用方式。

1.Compose

Compose接收一个数据增强操作序列,然后将其组合成单个数据增强操作。我们仍基于Mnist数据集呈现Transforms的应用效果。

# 下载数据集

url = "https://mindspore-website.obs.cn-north-4.myhuaweicloud.com/" \
      "notebook/datasets/MNIST_Data.zip"
path = download(url, "./", kind="zip", replace=True)

train_dataset = MnistDataset('MNIST_Data/train')

image, label = next(train_dataset.create_tuple_iterator())
print(image.shape)

输出为:

(28, 28, 1)

接下来,定义操作composed,它包括了图像数据的重新缩放、归一化和通道顺序转换等预处理步骤

composed = transforms.Compose(
    [
        vision.Rescale(1.0 / 255.0, 0),
        vision.Normalize(mean=(0.1307,), std=(0.3081,)),
       HWC2CHW
    ]
)

train_dataset = train_dataset.map(composed, 'image')
image, label = next(train_dataset.create_tuple_iterator())
print(image.shape)

输出为:

(1, 28, 28)

前后输出原因不同是因为HWC2CHW,通道的格式变化了。

三.Vision Transforms

mindspore.dataset.vision模块提供一系列针对图像数据的Transforms。在Mnist数据处理过程中,使用了RescaleNormalizeHWC2CHW变换。下面对其进行详述

1.Rescale

Rescale变换用于调整图像像素值的大小,包括两个参数:

  • rescale:缩放因子。
  • shift :平移因子。

图像的每个像素将根据这两个参数进行调整,输出的像素值为 o u t p u t i = i n p u t i ∗ r e s c a l e + s h i f t output_{i} = input_{i} * rescale + shift outputi=inputirescale+shift

这里我们先使用numpy随机生成一个像素值在[0, 255]的图像,将其像素值进行缩放。

random_np = np.random.randint(0, 255, (48, 48), np.uint8)
random_image = Image.fromarray(random_np)
print(random_np)

输出为:

[[ 77   0 185 ... 175  46 108]
 [132 164  88 ... 206 131 204]
 [136 242   2 ...   0 137 154]
 ...
 [120  43  11 ... 202  57 192]
 [ 18 203  61 ...  36 155 253]
 [231  27 131 ... 170  63 179]]

为了更直观地呈现Transform前后的数据对比,我们使用Transforms的Eager模式进行演示。首先实例化Transform对象,然后调用对象进行数据处理。

rescale = vision.Rescale(1.0 / 255.0, 0)
rescaled_image = rescale(random_image)
print(rescaled_image)

输出为:

[[0.3019608  0.         0.7254902  ... 0.6862745  0.18039216 0.42352945]
 [0.5176471  0.6431373  0.34509805 ... 0.8078432  0.5137255  0.8000001 ]
 [0.53333336 0.9490197  0.00784314 ... 0.         0.5372549  0.6039216 ]
 ...
 [0.47058827 0.16862746 0.04313726 ... 0.79215693 0.22352943 0.75294125]
 [0.07058824 0.7960785  0.2392157  ... 0.14117648 0.60784316 0.9921569 ]
 [0.9058824  0.10588236 0.5137255  ... 0.6666667  0.24705884 0.7019608 ]]

可以看到每个值都进行了缩放,即除以255。


2.Normalize

Normalize变换用于对输入图像的归一化,包括三个参数:

  • mean:图像每个通道的均值。
  • std:图像每个通道的标准差。
  • is_hwc:bool值,输入图像的格式。True为(height, width, channel),False为(channel, height, width)。

图像的每个通道将根据meanstd进行调整,计算公式为 o u t p u t c = i n p u t c − m e a n c s t d c output_{c} = \frac{input_{c} - mean_{c}}{std_{c}} outputc=stdcinputcmeanc,其中 c c c代表通道索引。

normalize = vision.Normalize(mean=(0.1307,), std=(0.3081,))
normalized_image = normalize(rescaled_image)
print(normalized_image)

上面的函数让数据以均值0.1307,标准差0.3081的规格进行调整,输出为:

[[ 0.55586106 -0.42421296  1.9305104  ...  1.803228    0.1612858
   0.9504364 ]
 [ 1.2559141   1.6632175   0.69587165 ...  2.1978035   1.2431858
   2.172347  ]
 [ 1.306827    2.65602    -0.3987565  ... -0.42421296  1.3195552
   1.5359352 ]
 ...
 [ 1.1031753   0.12310111 -0.2842024  ...  2.1468906   0.3012964
   2.0196083 ]
 [-0.19510475  2.1596189   0.35220936 ...  0.03400347  1.5486634
   2.7960305 ]
 [ 2.5160093  -0.08055063  1.2431858  ...  1.7395868   0.37766582
   1.854141  ]]

3.HWC2CHW

HWC2CHW变换用于转换图像格式。在不同的硬件设备中可能会对(height, width, channel)或(channel, height, width)两种不同格式有针对性优化。MindSpore设置HWC为默认图像格式,在有CHW格式需求时,可使用该变换进行处理。

这里我们先将前文中normalized_image处理为HWC格式,然后进行转换。可以看到转换前后的shape发生了变化。

hwc_image = np.expand_dims(normalized_image, -1)
hwc2chw = vision.HWC2CHW()
chw_image = hwc2chw(hwc_image)
print(hwc_image.shape,"\n",chw_image.shape)

输出为:

(48, 48, 1) 
 (1, 48, 48)

四.Text Transforms

mindspore.dataset.text模块提供一系列针对文本数据的Transforms。与图像数据不同,文本数据需要有分词(Tokenize)、构建词表、Token转Index等操作。这里简单介绍其使用方法。
首先我们定义三段文本,作为待处理的数据,并使用GeneratorDataset进行加载

texts = ['welcome to GuangXi']
test_dataset = GeneratorDataset(texts, 'text')

1.PythonTokenizer

分词(Tokenize)操作是文本数据的基础处理方法,MindSpore提供多种不同的Tokenizer。这里我们选择基础的PythonTokenizer举例,此Tokenizer允许用户自由实现分词策略。随后我们利用map操作将此分词器应用到输入的文本中,对其进行分词。

def my_tokenizer(content):
    return content.split()

test_dataset = test_dataset.map(text.PythonTokenizer(my_tokenizer))
print(next(test_dataset.create_tuple_iterator()))

输出为:

[Tensor(shape=[3], dtype=String, value= ['welcome', 'to', 'GuangXi'])]

可以看到,分词成功。

2.Lookup

Lookup为词表映射变换,用来将Token转换为Index。在使用Lookup前,需要构造词表,一般可以加载已有的词表,或使用Vocab生成词表。这里我们选择使用Vocab.from_dataset方法从数据集中生成词表。

vocab = text.Vocab.from_dataset(test_dataset)
print(vocab.vocab())

输出为:

{'welcome': 2, 'to': 1, 'GuangXi': 0}

生成词表后,可以配合map方法进行词表映射变换,将Token转为Index。

test_dataset = test_dataset.map(text.Lookup(vocab))
print(next(test_dataset.create_tuple_iterator()))

输出为:

[Tensor(shape=[3], dtype=Int32, value= [2, 1, 0])]

五.Lambda Transforms

Lambda函数是一种不需要名字、由一个单独表达式组成的匿名函数,表达式会在调用时被求值。Lambda Transforms可以加载任意定义的Lambda函数,提供足够的灵活度。在这里,我们首先使用一个简单的Lambda函数,对输入数据乘2:

test_dataset = GeneratorDataset([1, 2, 3], 'data', shuffle=False)
test_dataset = test_dataset.map(lambda x: x * 2)
print(list(test_dataset.create_tuple_iterator()))
[[Tensor(shape=[], dtype=Int64, value= 2)], [Tensor(shape=[], dtype=Int64, value= 4)], [Tensor(shape=[], dtype=Int64, value= 6)]]

可以看到map传入Lambda函数后,迭代获得数据进行了乘2操作。

我们也可以定义较复杂的函数,配合Lambda函数实现复杂数据处理:

def func(x):
    return x * x + 3

test_dataset = test_dataset.map(lambda x: func(x))

print(list(test_dataset.create_tuple_iterator()))

输出为:

[[Tensor(shape=[], dtype=Int64, value= 2707)], [Tensor(shape=[], dtype=Int64, value= 132499)], [Tensor(shape=[], dtype=Int64, value= 2322579)]]

总结与感想

今天学习了多种数据变换方法,主要有三类。第一类是通用的数据变换方法,以compose为代表。第二类是针对图像数据的变换方法,有Rescale,Normalize和HWC2CHW等等。第三类是针对文字数据的变换方法有PythonTokenizer和Lookup等。最后学习了一种特殊的函数,Lambda函数。通过对以上内容的学习,我进一步理解了在深度学习中是如何对数据进行处理的,在接下来的时间里,期待进一步的学习。

;