【龙良曲博士】深度学习与PyTorch-lesson63-自定义数据集

需打开Visdom:python -m visdom.server

from torch.utils.data import Dataset, DataLoader
import torch
import os, glob
import random, csv
# 图片读取工具
from torchvision import transforms
from PIL import Image

class NumberDataset1(Dataset):
    def __init__(self, root, resize, mode):
        super(NumberDataset1, self).__init__()

        self.root = root
        self.resize = resize

        self.name2label = {}
        for name in sorted(os.listdir(os.path.join(root))):  ##保持顺序不乱
            if not os.path.isdir(os.path.join(root, name)):
                continue
            self.name2label[name] = len(self.name2label.keys())  ##把key的长度作为名字
        print(self.name2label)

        self.images, self.labels = self.load_csv('images1.csv')

        if mode == 'train':
            self.images = self.images[:int(0.6 * len(self.images))]
            self.labels = self.labels[:int(0.6 * len(self.labels))]
        elif mode == 'val':
            self.images = self.images[int(0.6 * len(self.images)):int(0.8 * len(self.labels))]
            self.labels = self.labels[int(0.6 * len(self.labels)):int(0.8 * len(self.labels))]
        else:
            self.images = self.images[int(0.8 * len(self.images)):]
            self.labels = self.labels[int(0.8 * len(self.labels)):]

    def load_csv(self, filename):

        if not os.path.exists(os.path.join(self.root, filename)):
            images = []
            for name in self.name2label.keys():
                images += glob.glob(os.path.join(self.root, name, '*.png'))
                images += glob.glob(os.path.join(self.root, name, '*.jpg'))
                images += glob.glob(os.path.join(self.root, name, '*.jpeg'))

            print(len(images), images)

            random.shuffle(images)  # 打乱
            with open(os.path.join(self.root, filename), mode='w', newline='') as f:
                writer = csv.writer(f)
                for img in images:
                    name = img.split(os.sep)[-2]  # 用\\分开然后去倒数第二个
                    label = self.name2label[name]
                    writer.writerow([img, label])

        images, labels = [], []
        with open(os.path.join(self.root, filename)) as f:
            reader = csv.reader(f)
            for row in reader:
                # print(row)
                img, label = row
                label = int(label)

                images.append(img)
                labels.append(label)
        assert len(images) == len(labels)
        return images, labels

    # if training:
    #     self.samples = list(range(1,1001))
    # else:
    #     self.samples = list(range(1000,1501))

    def __len__(self):
        return len(self.images)

    def __getitem__(self, item):
        img, label = self.images[item], self.labels[item]
        ####### 将img从img_path转换成img data tensor,并进行 data argumentation #################
        tf = transforms.Compose([
            lambda x: Image.open(x).convert('RGB'),  # string path= > image data  将img的path转换成img data
            transforms.Resize((int(self.resize * 1.25), int(self.resize * 1.25))),
            transforms.RandomRotation(15),
            transforms.CenterCrop(self.resize),  # 先变成resize的1.25倍大,然后随机旋转15度,再中心裁剪到resize大小
            transforms.ToTensor(),
            transforms.Normalize(mean=[0.485, 0.456, 0.406],
                                 std=[0.229, 0.224, 0.225])
        ])

        img = tf(img)
        label = torch.tensor(label)
        return img, label

    def denormalize(self, x_hat):

        mean = [0.485, 0.456, 0.406]
        std = [0.229, 0.224, 0.225]
        # x_hat = (x-mean)/std
        # x = x_hat*std + mean
        # x: [c, h, w]
        # mean: [3] => [3, 1, 1]
        # std:[3] => [3, 1, 1]
        mean = torch.tensor(mean).unsqueeze(1).unsqueeze(1)  # 增加维度
        std = torch.tensor(std).unsqueeze(1).unsqueeze(1)
        # print(mean.shape, std.shape)
        x = x_hat * std + mean

        return x

def main():
    pass

if __name__ == '__main__':
    import visdom
    import time
    import  torchvision
    vis = visdom.Visdom()
    tf = torchvision.transforms.Compose([
        transforms.Resize((64,64)),
        transforms.ToTensor()
    ])
    ###第一种方式
    db = torchvision.datasets.ImageFolder(root='pokemon',transform=tf)
    loader = DataLoader(db, batch_size=32, shuffle=True,num_workers=4) ##8个线程
    for x, y in loader:
        vis.images(x, nrow=8, win='batch', opts=dict(title='batch'))  # 每行8行
        vis.text(str(y.numpy()), win='label', opts=dict(title='batch-y'))
        time.sleep(10)  # 每次加载完后休息10秒
  ###第2种方式
#     db = NumberDataset1('pokemon', 64, 'train')
#     x, y = next(iter(db))
#     print(x.shape, y.shape, y)
#     # viz.image(x, win='sample_x', opts=dict(title='sample_x')) #显示这张图片,显示不全,要进行denormalize
# vis.image(db.denormalize(x), win='sample_x', opts=dict(title='sample_x'))
# loader = DataLoader(db, batch_size=32, shuffle=True)
# for x, y in loader:
#     vis.images(db.denormalize(x), nrow=8, win='batch', opts=dict(title='batch'))  # 每行8行
#     vis.text(str(y.numpy()), win='label', opts=dict(title='batch-y'))
#
#     time.sleep(10)  # 每次加载完后休息10秒

效果图:在这里插入图片描述

Pokemon数据集是一个包含了关于Pokemon(宠物小精灵)的信息的数据集。这个数据集中收集了数百种Pokemon的属性、能力、技能、种族值等详细信息,可以用来进行各种数据分析和机器学习任务。 这个数据集中的属性信息包括每只Pokemon的种类、身高、重量、颜色等等。能力信息包括每只Pokemon的生命值、攻击力、防御力、速度等等。技能信息包括每只Pokemon可以使用的特殊技能、物理技能和状态技能。种族值则是一种用来表示Pokemon基础能力值的指标,能够影响Pokemon在战斗中的表现。 通过对Pokemon数据集进行分析,我们可以了解每个种类Pokemon的平均属性值、能力分布和技能种类等等。比如,我们可以分析哪些Pokemon的攻击力和速度高,哪些Pokemon的特殊防御力比较低,以及它们之间的关联性等。这对于创作游戏策略、进行角色平衡的调整等方面都有着重要的作用。 此外,Pokemon数据集还可以用于机器学习的任务。我们可以利用这些数据训练模型来预测Pokemon的属性、种族值等信息,或者构建一个可以根据Pokemon的属性和技能来推荐最佳战斗队伍的模型。这些模型可以在游戏中用于AI对战、自动战斗等功能。 总之,Pokemon数据集是一个提供了Pokemon相关信息的数据集,对于理解和分析Pokemon的属性、能力以及进行相关的机器学习任务具有重要意义。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值