- 博客(1)
- 收藏
- 关注
原创 如何处理RuntimeError: _cdist_backward requires X1(X2) to be contiguous
错误通常报在loss.backward这一句。反向传播的时候,函数torch.cdist(x1,x2)需要为连续,如果有这个错说明X1(X2)的参数不连续,只要在这个参数后面加上.contiguous()就可以了
2022-07-30 09:51:30 532 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人