训练时在每一个epoch结束后就会出现好几行这个警告:

解释一:
原因是:线程撕裂,出现了警告,警告数量为设置的线程数量,32个:
大家说无关紧要,说是如果把线程数改小一些,就不会有警告了,但是会影响运行速度,所以可以当作不存在。PyTorch版本1.10之后就会修复了,问题不大。
解释二:
找到代码中的:
torch.utils.data.DataLoader(
val_dataset, batch_size=args.batch_size, shuffle=True, num_workers=args.num_workers,
pin_memory=**True**)
改为
torch.utils.data.DataLoader(
val_dataset, batch_size=args.batch_size, shuffle=True, num_workers=args.num_workers,
pin_memory=**False**)
4616

被折叠的 条评论
为什么被折叠?



