INTERNAL ASSERT FAILED

RuntimeError: shmem_size <= sharedMemPerBlockINTERNAL ASSERT FAILED at "/pytorch/aten/src/ATen/native/cuda/AdaptiveAveragePooling.cu":679,please report a bug to PyTorch.
第一次遇到这个报错记录一下

在pytorch2.3.0和pytorch2.1.2里报了相同的错错误,一开始以为是显存不够造成的,尝试了调小batch_size,修改gru隐藏节点,修改滤波器大小等方法都没有解决

于是开始上网找办法
试了搜到的很多种办法,包括csdn里其他朋友的办法以及GitHub里的办法

1.修改site-packages\torch\cuda\__init__.py里的部分代码

2.更新pytorch和cuda版本

3.换回pytorch1.x.x版本

4.重新配置环境变量,在命令行中使用环境变量

5.清除缓存

都没有成功,于是我开始排查自己对代码所做的改动,最大的改动是注意力模块,而其中最有可能出问题的,我认为是AdaptiveAvgPool1d,自适应平均池化,将其改为对应的平均池化之后,我的问题就解决了,没再出现INTERNAL ASSERT FAILED这个报错

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值