win11系统pytorch下使用DataLoader加载数据,运行images, labels = next(iter(train_loader))报错BrokenPipeError: [Errno

事情的经过是这样的:
我正在学习B站up主同济子豪兄的视频Pytorch迁移学习训练自己的图像分类模型【两天搞定AI毕设】

up主使用的Linux系统,我自己使用的本地的windows11系统。
在写到如下代码时,

# 定义数据加载器
from torch.utils.data import DataLoader

BATCH_SIZE = 32

# 分别定义训练集和测试集的数据加载器
# 训练集的数据加载器
train_loader = DataLoader(train_dataset,
                          batch_size=BATCH_SIZE,
                          shuffle=True,
                          num_workers=1
                         )

# 测试集的数据加载器
test_loader = DataLoader(test_dataset,
                         batch_size=BATCH_SIZE,
                         shuffle=False,
                         num_workers=1
                        )

#查看一个batch的图像和标注
# DataLoader 是 python生成器,每次调用返回一个 batch 的数据
images, labels = next(iter(train_loader))

up主那边可以正常运行,我这边报错如下:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在网上冲浪一段时间之后发现是因为windows系统 pytorch不能使用多进程,num_workers只能设置为0,但是导致GPU训练时速度太慢。

在Windows上,FileMapping对象应必须在所有相关进程都关闭后,才能释放。
启用多线程处理时,子进程将创建FileMapping,然后主进程将打开它。
之后当子进程将尝试释放它的时候,因为父进程还在引用,所以它的引用计数不为零,无法释放。
但是当前代码没有提供在可能的情况下再次关闭它的机会。这个版本官方说num_workers=1是可以用的,更多的线程还在解决,不过现在即便是用2个子进程也已经可以了。

我先将num_workers设为0,报错消失。

还有一种解决方法,可以在不降低线程数量的同时解决这个问题:
在使用DataLoader读取之前加上 if name == ‘main’ : 就可以了。
(这个方法我试了没有成功?这是为什么?)

# 分别定义训练集和测试集的数据加载器
# 训练集的数据加载
if __name__ == '__main__':
    train_loader = DataLoader(train_dataset,
                              batch_size=BATCH_SIZE,
                              shuffle=True,
                              num_workers=4
                             )

    # 测试集的数据加载器
    test_loader = DataLoader(test_dataset,
                             batch_size=BATCH_SIZE,
                             shuffle=False,
                             num_workers=4#设为单线程
                            )

    #查看一个batch的图像和标注
    # DataLoader 是 python生成器,每次调用返回一个 batch 的数据
    # images, labels = next(iter(train_loader))
    # print(images.shape)
    # print(labels)

    # DataLoader 是 python生成器,每次调用返回一个 batch 的数据
    # if __name__ == '__main__':
    images, labels = next(iter(train_loader))

依然在报同样的错,大家知道的给我留个言~

以上方法参考博客:
DataLoader windows平台下 多线程读数据报错 | BrokenPipeError: [Errno 32] Broken pipe | freeze_support()_Jemary_的博客-程序员信息网

import numpy as np import tensorflow as tf from tensorflow import keras import matplotlib.pyplot as plt ## Let us define a plt function for simplicity def plt_loss(x,training_metric,testing_metric,ax,colors = ['b']): ax.plot(x,training_metric,'b',label = 'Train') ax.plot(x,testing_metric,'k',label = 'Test') ax.set_xlabel('Epochs') ax.set_ylabel('Accuarcy')# ax.set_ylabel('Categorical Crossentropy Loss') plt.legend() plt.grid() plt.show() tf.keras.utils.set_random_seed(1) ## We import the Minist Dataset using Keras.datasets (train_data, train_labels), (test_data, test_labels) = keras.datasets.mnist.load_data() ## We first vectorize the image (28*28) into a vector (784) train_data = train_data.reshape(train_data.shape[0],train_data.shape[1]train_data.shape[2]) # 60000784 test_data = test_data.reshape(test_data.shape[0],test_data.shape[1]test_data.shape[2]) # 10000784 ## We next change label number to a 10 dimensional vector, e.g., 1->[0,1,0,0,0,0,0,0,0,0] train_labels = keras.utils.to_categorical(train_labels,10) test_labels = keras.utils.to_categorical(test_labels,10) ## start to build a MLP model N_batch_size = 5000 N_epochs = 100 lr = 0.01 ## we build a three layer model, 784 -> 64 -> 10 MLP_4 = keras.models.Sequential([ keras.layers.Dense(128, input_shape=(784,),activation='relu'), keras.layers.Dense(64,activation='relu'), keras.layers.Dense(10,activation='softmax') ]) MLP_4.compile( optimizer=keras.optimizers.Adam(lr), loss= 'categorical_crossentropy', metrics = ['accuracy'] ) History = MLP_4.fit(train_data[:10000],train_labels[:10000], batch_size = N_batch_size, epochs = N_epochs,validation_data=(test_data,test_labels), shuffle=False) train_acc = History.history['accuracy'] test_acc = History.history['val_accuracy']在该模型的每一层(包括输出层)都分别加入L1,L2正则项训练,分别汇报测试数据准确率
06-02
可以使用以下代码在模型的每一层(包括输出层)都加入L1,L2正则项训练,并汇报测试数据准确率: ``` import numpy as np import tensorflow as tf from tensorflow import keras import matplotlib.pyplot as plt ## Let us define a plt function for simplicity def plt_loss(x,training_metric,testing_metric,ax,colors = ['b']): ax.plot(x,training_metric,'b',label = 'Train') ax.plot(x,testing_metric,'k',label = 'Test') ax.set_xlabel('Epochs') ax.set_ylabel('Accuarcy')# ax.set_ylabel('Categorical Crossentropy Loss') plt.legend() plt.grid() plt.show() tf.keras.utils.set_random_seed(1) ## We import the Minist Dataset using Keras.datasets (train_data, train_labels), (test_data, test_labels) = keras.datasets.mnist.load_data() ## We first vectorize the image (28*28) into a vector (784) train_data = train_data.reshape(train_data.shape[0],train_data.shape[1]*train_data.shape[2]) # 60000*784 test_data = test_data.reshape(test_data.shape[0],test_data.shape[1]*test_data.shape[2]) # 10000*784 ## We next change label number to a 10 dimensional vector, e.g., 1->[0,1,0,0,0,0,0,0,0,0] train_labels = keras.utils.to_categorical(train_labels,10) test_labels = keras.utils.to_categorical(test_labels,10) ## start to build a MLP model N_batch_size = 5000 N_epochs = 100 lr = 0.01 ## we build a three layer model, 784 -> 64 -> 10 MLP_4 = keras.models.Sequential([ keras.layers.Dense(128, input_shape=(784,),activation='relu',kernel_regularizer=keras.regularizers.l1_l2(l1=0.01, l2=0.01)), keras.layers.Dense(64,activation='relu',kernel_regularizer=keras.regularizers.l1_l2(l1=0.01, l2=0.01)), keras.layers.Dense(10,activation='softmax',kernel_regularizer=keras.regularizers.l1_l2(l1=0.01, l2=0.01)) ]) MLP_4.compile( optimizer=keras.optimizers.Adam(lr), loss= 'categorical_crossentropy', metrics = ['accuracy'] ) History = MLP_4.fit(train_data[:10000],train_labels[:10000], batch_size = N_batch_size, epochs = N_epochs, validation_data=(test_data,test_labels), shuffle=False) train_acc = History.history['accuracy'] test_acc = History.history['val_accuracy'] print("MLP model with L1 and L2 regularization, test accuracy: ", test_acc[-1]) ``` 在该模型的每一层都加入L1和L2正则化项训练,并且L1和L2正则化项的系数都设置为0.01。最后输出模型在测试数据上的准确率。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

verse_armour

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值