计算MSELoss的梯度

import torch.nn as nn
x_in = torch.tensor([[0, 1, 2], [3, 4, 5], [6, 7, 8]]).view(1,1,3,3).type(torch.FloatTensor)
x_in = Variable(x_in, requires_grad = True)
print(x_in)

y_out = torch.tensor([[19, 25],[37, 43]]).view(1,1,2,2).type(torch.FloatTensor)
c_core = torch.ones(2,2).view((1,1,2,2)).type(torch.FloatTensor)
c_core = c_core.requires_grad_()

LR=0.01
# 定义一个损失函数
loss_fun = nn.MSELoss(reduce=True, size_average=True)
for i in range(10):
 y_pre = F.conv2d(x_in,c_core)
 loss = loss_fun(y_pre,y_out)
 c_core.retain_grad()
 loss.backward()
 print(c_core.data)
 print(c_core.grad)
 print(c_core.grad_fn)
 c_core = c_core-c_core.grad*LR
 print('the loss is:',loss)
print('c_core: ',c_core)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值