使用torch 进行梯度下降

是针对的课后作业 来实现的 老师的课听了好几遍才大致理解整个的流程

import torch
import matplotlib.pyplot as plt

x_data = [1.0,2.0,3.0]
y_data = [2.0,4.0,6.0]

w1 = torch.Tensor([1.0])
w2 = torch.Tensor([1.0])
b = torch.Tensor([1.0])

#此代码为了 对相应参数进行梯度下降并保留到相关参数内
w1.requires_grad = True
w2.requires_grad = True
b.requires_grad = True

def forward(x):
    return w1*x**2 + w2*x + b

def loss(x,y):
    y_pred = forward(x)
    loss = (y_pred-y)**2
    return loss

print("before training", 4, forward(4))

epoch_list = []
loss_list = []

for epoch in range(10001):
    for x,y in zip(x_data,y_data):
        l = loss(x, y)
        l.backward()   # 计算出所有相关梯度分别存于 w1.grad,w2.grad,b.grad中  使用的是SGD
        w1.data = w1.data - 0.01*w1.grad.data
        w2.data = w2.data - 0.01*w2.grad.data
        b.data = b.data - 0.01*b.grad.data
        
        #torch 的每次运算都在构建运算图,在运算完一次循环后忘记加下面的梯度清除了这个了 导致数值非常大 出现了nan
        w1.grad.data.zero_()
        w2.grad.data.zero_()
        b.grad.data.zero_()
        
    if epoch %1000 == 0:  #每1000步打印一次相关数据
        print("epoch", epoch, "loss:",  w1.data, w2.data, b.data, l.item())
    epoch_list.append(epoch)
    loss_list.append(l)
        
print("after training", 4, forward(4))

plt.plot(epoch_list,loss_list)
plt.ylabel("Loss")
plt.xlabel("epoch")
plt.show()
        
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Afterglow-F

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值