PyTorch构造数据集(深度学习计算机视觉)

构造数据集

在之前的学习过程中,训练模型用的数据集是pytorch自带的MNIST等,对导入数据集不求甚解。但当上手手势识别项目的时候,我对数据的导入一头雾水,查找到的资料让人“从入门到放弃”。自闭之后,重新研究了构造pytorch数据集的步骤,弄懂了其中一种相对简单的方法。

储存图片路径与标签的文件

以txt文件为例,train.txt和test.txt文件中每行都只有一张图片的路径、对应的标签。test.txt文件某片段如下,每行最后的数字是图片的标签。

test/2/hand1_2_top_seg_4_cropped.png 2
test/2/hand1_2_top_seg_3_cropped_0_9961.png 2
test/2/hand1_2_top_seg_3_cropped_0_7789.png 2
test/2/hand2_2_bot_seg_1_cropped.png 2
test/3/hand2_3_right_seg_1_cropped.png 3
test/3/hand5_3_bot_seg_2_cropped.png 3

可以先将图片根据标签储存在不同文件夹,在此基础上,使用python脚本创建这类txt文件。
(csv等文件亦可,本文以txt为例)

导入所需的库

import torch
import torchvision
from PIL import Image
import sys

自定义datasets类

自定义Dataset的子类——datasets类。
要之后要用Dataloader所定义的datasets类的话,这个类得拥有三个必要的函数:init、getitem、len。
注意:这里image_path在txt文件中path前加了’hand_gesture_data/’,保证image_path是正确的相对路径。

class gesture_datasets(torch.utils.data.Dataset):
    def __init__(self, txt_path, transform=None):
        lines = open(txt_path, 'r')
        imgs = []
        for line in lines:
            line = line.rstrip()
            words = line.split()
            imgs.append((words[0], int(words[1])))
        self.imgs = imgs
        self.transform = transform
    def __getitem__(self, index):
        image_path = 'hand_gesture_data/' + self.imgs[index][0]
        label = self.imgs[index][1]
        img = Image.open(image_path).convert('RGB')
        img = self.transform(img)
        return img, label
    def __len__(self):
        return len(self.imgs)

定义load_data函数

这里定义了一个函数用于load data,其中将datasets类实例化后,关键在于torch.utils.data.DataLoader的使用。
txt_path同样是相对路径。使用Dataloader时可以考虑多线程(暂不支持Windows)。

def load_data_gesture(batch_size, resize=None):
    transform = []
    if resize:
        transform.append(torchvision.transforms.Resize(size=resize))
    transform.append(torchvision.transforms.ToTensor())
    transform = torchvision.transforms.Compose(transform)
    gesture_train = gesture_datasets(txt_path='hand_gesture_data/train/train.txt', transform=transform)
    gesture_test = gesture_datasets(txt_path='hand_gesture_data/test/test.txt', transform=transform)
    num_workers = 0 if sys.platform.startswith('win') else 4
    train_iter = torch.utils.data.DataLoader(gesture_train, batch_size=batch_size, shuffle=True, num_workers=num_workers)
    test_iter = torch.utils.data.DataLoader(gesture_test, batch_size=batch_size, shuffle=False, num_workers=num_workers)
    return train_iter, test_iter

调用函数即可构造

train_iter, test_iter = load_data_gesture(batch_size=60, resize=(224, 224))
  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值