Bootstrap

len(dataset)、len(dataloader)、len(label)的区别

from torchvision import datasets
from torch.utils.data import DataLoader
from torchvision import transforms
import os

#数据集的位置,我的已经是下好的
dir = 'D:/Research_Time/一些通用的东西/torch日积月累/some_copy_model/data/mnist'

#自动创建数据集文件,代码意思是,如果上面的文件不存在,就创建这个文件夹
if not os.path.exists(dir):
    os.makedirs(dir)

test_dataset = datasets.MNIST(root=dir,
                              train=False,
                              transform=transforms.ToTensor(),
                              download=True)


test_data = DataLoader(dataset=test_dataset,
                       batch_size=16,
                       shuffle=False)

print(len(test_dataset))
print(len(test_data))
for data in (test_data):
    input, label = data
    print(label.shape)

上面代码执行的结果是:

10000
625
torch.Size([16])
torch.Size([16])
torch.Size([16])
…………
torch.Size([16])


#最后是torch.size([16])乘625次,因为我写了一个循环取出test_data,
#我不知道怎么只取出一个batch,所以把所有batch_size都取出来了

文字讲述:

以mnist为例子

len(test_dataset)是整个数据集测试集的大小,也就是10000
len(test_data)是整个测试集/batch_size的大小,batch_size是16,
dataloader每次从测试集中取出16张图,就将测试集分为了10000/16个小组,于是它的长度是625
len(label)是一个批次的数据大小,batch_size=16,所以label=16

悦读

道可道,非常道;名可名,非常名。 无名,天地之始,有名,万物之母。 故常无欲,以观其妙,常有欲,以观其徼。 此两者,同出而异名,同谓之玄,玄之又玄,众妙之门。

;