废话不多,方法简单:RuntimeError: grad can be implicitly created only for scalar outputs

class My_loss(nn.Module):  # 自定义损失函数类计算预测值和目标值之间的均方误差损失
    '''自定义损失函数'''
    def __init__(self):
        super().__init__()
    def forward(self, x, y):
        x = x.to(device)
        y = y.to(device)
        z= torch.matmul(x, C.T)
        return z

criterion = My_loss().to(device)

for epoch in range(100):
    train_loss = 0
    for i, (batch_u, batch_y) in enumerate(train_loader):
        batch_u = batch_u.to(device)
        batch_y = batch_y.to(device)
        xk_1 = model1(batch_u)
        loss = criterion(xk_1, batch_y)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        train_loss += loss.item()
    train_losses.append(train_loss / len(train_loader))

报错:RuntimeError: grad can be implicitly created only for scalar outputs

错误原因:对一个非标量值进行反向传播(backward pass),但没有提供梯度(grad)的参数。在自动微分中,我们通常对标量(单个数值)进行反向传播,计算该标量对某些输入张量的梯度。如果反向传播的输出不是标量,就需要显式地指定一个与输出同形状的张量来表示梯度。

解决方法:loss.backward 改成 loss.backward(torch.ones_like(loss))

TIPS:

1. torch.ones_like(loss)是传入的grad_tensors参数,表示创建了一个与loss同样大小的全1张量,另losstorch.ones_like(loss)点乘后再进行反向传播,相当于对loss求和后再进行反向传。

2. 通过提供梯度参数,就相当于告诉PyTorch如何对非标量输出进行反向传播。通常,这个参数是一个与y同形状的张量,并且包含了损失函数对每个元素的梯度。这在进行雅可比向量积计算时非常有用。

3. grad_tensors的作用其实可以简单地理解成在求梯度时的权重,因为可能不同值的梯度对结果影响程度不同;

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值