Train_Dataset 和 Train_Dataloader 长度不一样,debug了很久很久
令Dataloader shuffle=false 就好了
train_loader = torch.utils.data.DataLoader( dataset=train_dataset, batch_size=args.train_batch_size, shuffle=False, num_workers=int(args.num_workers))
但是这其中的奥秘 我不理解 我不理解!!!!
有种被pytorch欺骗感情的感觉