torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 64.00 MiB (GPU 0; 10.75 GiB total capacity; 10.45 GiB already allocated; 26.00 MiB free; 10.53 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
这个问题就是显存爆炸了,我们放进去的数据,将显存占满了,此时将batch_size调到1都无法解决问题,证明与batch_size无关
这时可以观察之前的代码中的data.to(device)操作,观察里面的数据是否太大,一次性放进去会导致上述问题,将放进去的数据缩小即可解决。但是后续维度的改变还需要代码的变动。