【hdf5】python生成大于4GB的数据集

最近需要生成数据集,我最开始使用的是npy的方式,发现npy的文件生成超过4GB就会报错,于是我换成了hdf5,能够生成大于4GB的文件,比如下面的例子,我生成的数据集就超过了22GB。

import snntorch as snn
from snntorch.spikevision import spikedata
import numpy as np
from tqdm import tqdm 
import h5py
# create datasets
train_ds = spikedata.SHD("dataset/shd", train=True)
test_ds = spikedata.SHD("dataset/shd", train=False)

def save_data(dataset, data_name):
    data=[]
    labels=[]
    for i in tqdm(range(len(dataset))):
        x=train_ds[i][0]
        y=train_ds[i][1]
        data.append(x.numpy())
        labels.append(y)
    test_data=np.concatenate(data,axis=0)
    hf=h5py.File(data_name,"w")
    #分别创建dset1,dset2,dset3这三个数据集

    hf.create_dataset("data",data=data)
    hf.create_dataset("labels",data=labels)
    hf.close()

save_data(train_ds,"train_data.hdf5")
save_data(test_ds,"test_data.hdf5")

def read_data(dataset_name):
    import numpy as np
    f = h5py.File(dataset_name, "r")
    for key in f.keys():
        print(key) #Names of the root level object names in HDF5 file - can be groups or datasets.
        print(type(f[key]))
        # print(f[key].value)
        data = np.array(f[key])
        print(data)
# test reading
read_data("test_data.hdf5")
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

农民小飞侠

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值