DataLoader支持的两种数据集

  1. Map格式:即key,value形式,例如 {0: ‘张三’, 1: ‘李四’}
  2. Iterator格式:例如数组,迭代器等

Iterator格式的DataLoader

Python中,只要可以for循环的数据,都是Iterator格式的数据。

Python的Iterator格式数据简介

data = [0,1,2,3,4]

for item in data:
    print(item, end=' ')
0 1 2 3 4 

上例子中,list数据类型是一个迭代器,for循环本质是每次调用了next函数。即其“效果”等价于下面的代码:

data = [0,1,2,3,4]
data_iter = iter(data) # 返回一个迭代器

item = next(data_iter, None) # 获取迭代器的下一个值
while item is not None:
    print(item, end=' ')
    item = next(data_iter, None)
0 1 2 3 4 

Pytorch使用DataLoader

from torch.utils.data import DataLoader

data = [i for i in range(100)] # 定义数据集,需要是一个可迭代的对象

"""
定义dataloader,其接受三个重要的参数
- dataset: 数据集
- batch_size: 要将数据集切分为多少份
- shuffle: 是否对数据集进行随机排序
"""
dataloader = DataLoader(dataset=data, batch_size=6, shuffle=False) 

for i, item in enumerate(dataloader): # 迭代输出
    print(i, item)
0 tensor([0, 1, 2, 3, 4, 5])
1 tensor([ 6,  7,  8,  9, 10, 11])
... 省略
15 tensor([90, 91, 92, 93, 94, 95])
16 tensor([96, 97, 98, 99])

上面例子中,输入一个数据集0~99,通过dataloader将数据集分成100/6 =17份,每份6个数据,最后一份因为不满6个,所以只返回了4个。

使用自定义的IterableDataset

from torch.utils.data import DataLoader
from torch.utils.data import IterableDataset

class MyDataset(IterableDataset):
    
    def __init__(self):
        print('init...')
    
    def __iter__(self):
        print('iter...') # 获取迭代器
        self.n = 1
        return self
    
    def __next__(self):
        print('next...') # 获取下一个元素
        x = self.n
        self.n += 1
        
        if x >= 100: # 当x到100时停止
            raise StopIteration
        return x

dataloader = DataLoader(MyDataset(), batch_size=5)

for i, item in enumerate(dataloader):
    print(i, item)
init...
iter...
next... next... next... next... next... 0 tensor([1, 2, 3, 4, 5])
next... next... next... next... next... 1 tensor([ 6,  7,  8,  9, 10])
... 省略
next... next... next... next... next... 18 tensor([91, 92, 93, 94, 95])
next... next... next... next... next... 19 tensor([96, 97, 98, 99])

从上面的例子可以看出,可迭代对象在初始化中会调用一次__init__方法,在获取迭代器时会调用一次__iter__方法,之后在获取元素时,每获取一个元素都会调用一次__next__方法

实战:自定义图片加载DataLoader

任务:从data\faces文件夹中读取图片,并做一定处理,然后通过dataloader加载。

数据集:
链接:https://pan.baidu.com/s/1UrygNmmfzcWdjb29JHEpFg 
提取码:toyd 

1.定义ImageDataset

import os
from torch.utils.data import IterableDataset
import torchvision
import torchvision.transforms as transforms

class ImageDataset(IterableDataset):
    def __init__(self, filepath):
        fnames = [filepath + '/' + filename for filename in os.listdir(filepath)] # 读取所有图片的文件路径
        self.i = -1 # 记录当前读取到的图片的下标
        self.compose = compose = [  # 图片的transform
                            transforms.ToPILImage(),
                            transforms.Resize((64, 64)),
                            transforms.ToTensor(),
                            transforms.Normalize(mean=(0.5, 0.5, 0.5), std=(0.5, 0.5, 0.5)),
                        ]
    
    def __len__(self):
        return len(fnames) # 假设文件夹没有其他无关文件
    
    def __iter__(self):
        return self
    
    def __next__(self):
        self.i += 1
        if self.i >= len(self.fnames):
            raise StopIteration
        img = torchvision.io.read_image(fnames[self.i]) # 读取第i个图片
        transform = transforms.Compose(self.compose) # 对图片进行处理
        return transform(img) # 返回处理后的图片

2.实例化dataset和dataloader

dataset = ImageDataset('./data/faces')
print(next(iter(dataset)).shape)

dataloader = DataLoader(dataset, batch_size=16)
print(dataloader)
torch.Size([3, 64, 64])
<torch.utils.data.dataloader.DataLoader object at 0x000001C10B6048E0>

3.使用dataloader

import matplotlib.pyplot as plt

grid_img = torchvision.utils.make_grid(next(iter(dataloader)), nrow=4)
plt.figure(figsize=(10,10))
plt.imshow(grid_img.permute(1, 2, 0))
plt.show()

在这里插入图片描述

Map格式的DataLoader

dataset = {0: '张三', 1:'李四', 2:'王五', 3:'赵六'}

dataloader = DataLoader(dataset, batch_size=2)

for i, value in enumerate(dataloader):
    print(i, value)
0 ['张三', '李四']
1 ['王五', '赵六']

自定义Map类型的Dataset

自定义Map类型的Dataset只需要定义类,并继承 torch.utils.data.Dataset 方法即可,但要实现两个重要方法:__getitem__(self, index)__len__(self)

个人比较推荐使用这种Dataset

例如:

from torch.utils.data import Dataset
from torch.utils.data import DataLoader

class CustomerDataSet(Dataset):

    def __init__(self):
        super(CustomerDataSet, self).__init__()
        self.data_dict = ['张三', '李四', '王五', '赵六']

    def __getitem__(self, index):
        return self.data_dict[index]

    def __len__(self):
        return len(self.data_dict)

其实这和上面的dict有异曲同工之妙,Dataloader会根据你dataset的大小,然后传一个index (0<=index<len(dataset)) 给getitem 方法,然后你返回该index对应的数据即可。例如:

from torch.utils.data import DataLoader

dataloader = DataLoader(CustomerDataSet(), batch_size=2, shuffle=True)
for i, value in enumerate(dataloader):
    print(i, value)

输出:

0 ['李四', '张三']
1 ['王五', '赵六']

在上面例子中,Dataloader的执行过程为:

  1. 调用 len(dataset) 方法,获取dataset的长度,这里为 4
  2. 然后生成 index list,即 [0,1,2,3]
  3. 因为传了shuffle=True,所以将index顺序打乱,结果为:[1,0,2,3]
  4. 然后按照顺序调用getitem方法,即:getitem(1)getitem(0)getitem(2)getitem(3)
  5. 根据batch_size进行返回,第一次返回两个getitem(1)getitem(0),第二次返回getitem(2)getitem(3)

上述的Dataloader执行过程只是为了方便大家理解,但具体源码是不是这样我也不清楚


作业:可以尝试使用Dataset的方式实现上一章的ImageDataset






参考资料

官方文档:https://pytorch.org/docs/stable/data.html
官方文档:https://pytorch.org/tutorials/beginner/basics/data_tutorial.html

Logo

为开发者提供学习成长、分享交流、生态实践、资源工具等服务,帮助开发者快速成长。

更多推荐