RuntimeError: shmem_size <= sharedMemPerBlockINTERNAL ASSERT FAILED at "/pytorch/aten/src/ATen/native/cuda/AdaptiveAveragePooling.cu":679,please report a bug to PyTorch.
第一次遇到这个报错记录一下
在pytorch2.3.0和pytorch2.1.2里报了相同的错错误,一开始以为是显存不够造成的,尝试了调小batch_size,修改gru隐藏节点,修改滤波器大小等方法都没有解决
于是开始上网找办法
试了搜到的很多种办法,包括csdn里其他朋友的办法以及GitHub里的办法
1.修改site-packages\torch\cuda\__init__.py里的部分代码
2.更新pytorch和cuda版本
3.换回pytorch1.x.x版本
4.重新配置环境变量,在命令行中使用环境变量
5.清除缓存
都没有成功,于是我开始排查自己对代码所做的改动,最大的改动是注意力模块,而其中最有可能出问题的,我认为是AdaptiveAvgPool1d,自适应平均池化,将其改为对应的平均池化之后,我的问题就解决了,没再出现INTERNAL ASSERT FAILED这个报错