PyTorch 读取大数据

PyTorch 读取大数据

数据量太大,必须分批从磁盘加载,下面是单机单卡的思路:

from torch.utils.data import Dataset, DataLoader
import torch


class PretrainData(Dataset):
    def __init__(self):
        '''
		假设data是个数据量很大的文件,每次只能从内存中加载3条数据,
		后续可以把data放在odps_batch_data中改写成从文件中读数据
		'''
        self.meta_list = []
        self.shift = 0
        self.odps_batch = 3
        self.data = [[1, 1, 1], [2, 2, 2], [3, 3, 3], [4, 4, 4], [5, 5, 5], [6, 6, 6], [7, 7, 7], [8, 8, 8]]
        self.datalength = len(self.data)

    def __len__(self):
        if len(self.meta_list) == 0:
            return self.odps_batch
        else:
            return len(self.meta_list)

    def __getitem__(self, idx):
        return self.meta_list[idx]

    def get_odps_batch_data(self):
        '''
		通过偏移量shift和大小odps_batch,来从表中读数据
		'''
        if self.shift + self.odps_batch < self.datalength:
            self.meta_list = torch.tensor(self.data[self.shift:self.shift + self.odps_batch])
        else:
            self.meta_list = torch.tensor(self.data[self.shift:])
        print("self.meta_list:", self.meta_list)


if __name__ == "__main__":
    dataset = PretrainData()
    dataloader = DataLoader(dataset, batch_size=2, shuffle=True, drop_last=False)

    for epoch in range(3):
        for shift in range(dataset.datalength // dataset.odps_batch + 1):
            dataset.shift = shift * dataset.odps_batch
            dataloader.dataset.get_odps_batch_data()
            print(len(dataloader))
            for data in dataloader:
                print("epoch:", epoch)
                print("data:", data)
                user = data[:, 0]
                item = data[:, 1]
                click = data[:, 2]
                print(user, item, click)

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值