深度学习(PyTorch)——DataLoader的使用方法

B站UP主“我是土堆”视频内容

batch_size是每次给网络的数据多少,比如我们去抓牌,当batch_size=2时,每次抓牌就抓2张。

shuffle是否要打乱数据,当设置为True时,前一次epoch的数据与当前次epoch的数据顺序是不一样的。

num_workers是表示进程数量,在window下可能出现bug

drop_last是每次从数据集取数据,可能最后存在余数,是否要把余数舍去,例如batch_size=2,整个数据的数量为99,此时会出现余数1。

 torch.Size([3,32,32])中的3表示3通道(RGB),图片尺寸大小为32*32

 batch_size=4表示从数据集当中取 test_data[0], test_data[1], test_data[2], test_data[3],把它们对应的img进行打包成imgs,把它们对应的target进行打包成targets

torch.Size([4,,3,32,32])当中的4表示4张图片,也就是batch_size

tensor([2,3,6,8])是把四张图片的target进行打包,每张图片对应的target分别是2,3,6,8

 

 

从tensorboard 中可以看到,每次取数据都是64张图片

 

最后一次取数据是16张图片

 

 把drop_last设置为True,在tensorboard中观察最后一次数据,发现最后的16张图片舍弃了

 

 

 

epoch=2表示把所有数据训练2遍,当shuffle=False时,第一次数据和第二次数据的排列顺序是一模一样的。

 

 当shuffle=TRUE时,结果如下,一般情况下shuffle设置为TRUE

 

 程序如下:

import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter

test_data = torchvision.datasets.CIFAR10(root="./dataset_CIFAR10",train=False,transform=torchvision.transforms.ToTensor())

test_loader = DataLoader(dataset=test_data,batch_size=4,shuffle=True,num_workers=0,drop_last=False)

img,target = test_data[0]
print(img.shape)
print(target)

writer = SummaryWriter("dataloader")
for epoch in range(2):
    step = 0
    for data in test_loader:
        imgs, targets = data
        # print(imgs.shape)
        # print(targets)
        writer.add_images("Epoch: {}".format(epoch),imgs,step)
        step=step+1
writer.close()

  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值