模型推理时CPU和GPU结果不一致 原因加入了下面这行代码,当注释的掉结果就一致了: torch.backends.cudnn.enabled = False 这个设置是默认为True的,会让程序在开始时花费一点额外时间,为整个网络的每个卷积层搜索最适合它的卷积实现算法,进而实现网络的加速。 也就是说训练时如果使用的最优的卷积算法,而关闭掉后选择了别的卷积算法,就会导致结果不一致。