pytorch学习笔记(3):自动求导与逻辑回归简单实现 一定坚持学完啊!!

自动求导与简单逻辑回归的实现

1.自动求导 torch.autograd.backward()

"""
torch.autograd.backward(
tensor,  用于求导的张量
grad_tensors, 多梯度权重
retain_graph,保存计算图
create_graph 创建导数计算图,用于高阶求导
)
"""

# y=(x+w)*(w+1)
# a=x+w
# b=w+1
# y=a*b

w = torch.tensor([1.], requires_grad=True)
x = torch.tensor([2.], requires_grad=True)

a = torch.add(w, x)
b = torch.add(w, 1)
y = torch.mul(a, b)

y.backward()
print(w.grad)
w = torch.tensor([1.], requires_grad=True)
x = torch.tensor([2.], requires_grad=True)

a = torch.add(w, x)
b = torch.add(w, 1)

y0 = torch.mul(a, b)
y1 = torch.add(a, b)

loss = torch.cat([y0, y1], dim=0)

grad_t = torch.tensor([1., 1.]) #多梯度权重

loss.backward(gradient=grad_t)

print(w.grad)

2.求取梯度 torch.autograd.grad()

"""
torch.autograd.grad(   用于求取梯度
outputs, 用于求导的张量
inputs,  需要梯度的张量
grad_outputs,  多梯度权重
retain_graph, 保存计算图
create_graph  创建导数计算图
)
"""

x = torch.tensor([
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值