问题描述:在对loss反向求导的时候报错:RuntimeError: Function AddmmBackward returned an invalid gradient at index 1 -got [64, 256] but expected shape compatible with [64, 2048]
心路历程:首先找度娘,搜索报错内容你应该会看到很多像这样的内容:“RuntimeError: Function AddBackward0 returned an invalid gradient at index 1”,这个报错跟我的错误看起来很相似,这样的帖子分析因为有些tensor传到cpu有些传到cuda,要保持一致,但是认真检查一遍问题未解决。
问题解决:看到一篇相同报错的帖子,后面有回答说可能是网络结构的问题,所以检查了网络结构还真的发现问题,前一个网络输出和后一个网络输入不一致,但是前向传播竟然不报错,反向求导的时候就出问题了。附原帖子网址,stack overflow这个网站,https://stackoverflow.com/questions/68222763/runtimeerror-function-addmmbackward-returned-an-invalid-gradient
RuntimeError: Function AddmmBackward returned an invalid gradient at index 1 -got [64, 256] but expe
最新推荐文章于 2024-07-04 15:17:55 发布
在使用PyTorch进行深度学习时,作者遇到一个RuntimeError,具体为'FunctionAddmmBackwardreturnedaninvalidgradientatindex1'。经过搜索和分析,问题可能源于网络结构,即前后层神经网络的输出尺寸不匹配。尽管前向传播未报错,但在反向传播时由于梯度计算导致问题暴露。解决方案是检查并修正网络结构,确保所有层之间的输入和输出维度一致。
摘要由CSDN通过智能技术生成