PyTorch笔记——实现线性回归完整代码&手动或自动计算梯度代码对比

参考资料:《深度学习框架PyTorch:入门与实践》
本文对此书中线性回归部分的代码进行注释解读,并补充手动反向传播过程中求解梯度的公式。

一、生成数据集完整代码

采用“假数据”:

# 设置随机数种子,保证在不同计算机上运行时下面的输出一致
t.manual_seed(1000)

def get_fake_data(batch_size=8):
    ''' 产生随机数据:y=x*2+3,加上了一些噪声 '''
    x = t.rand(batch_size, 1) * 20
    y = x * 2 + (1 + t.randn(batch_size, 1) * 3)
    return x, y

☆二、线性回归完整代码

自动计算梯度的代码在注释中:

# 如果括号内填一个1,则报错:mat2 must be a matrix
w = t.rand(1, 1)
b = t.zeros(1, 1)

# # 如果自动计算梯度
# # 注意requires_grad默认是False,不设置为True会在loss.backward()报错
# w = t.rand(1, 1, requires_grad=True)
# b = t.zeros(1, 1, requires_grad=True)

lr = 0.0001
losses = np.zeros(500)

for ii in range(500):
    x, y = get_fake_data(batch_size=32)
    
    # 前向传播,计算loss,采用均方误差
    # torch.mul是逐元素相乘;torch.mm是矩阵相乘
    y_pred = t.mm(x, w) + b.expand_as(y)
    loss = 0.5 * (y_pred - y) ** 2
    loss = loss.sum()
    losses[ii] = loss.item()
    
    # 反向传播,手动计算梯度
    dloss = 1
    dy_pred = dloss * (y_pred - y)
    dw = t.mm(x.t(), dy_pred)
    db = dy_pred.sum() # 注意b是标量,使用的时候扩展为元素全为b的向量
    
    # 更新参数
    w.sub_(lr * dw)
    b.sub_(lr * db)
    
#     # 如果自动计算梯度
#     loss.backward()
#     w.data.sub_(lr * w.grad.data)
#     b.data.sub_(lr * b.grad.data)
#     # 注意梯度清零
#     w.grad.data.zero_()
#     b.grad.data.zero_()
    
    # 每1000次训练画一次图
    if ii % 50 == 0:
        display.clear_output(wait=True)
        # predicted
        x = t.arange(0, 20).view(-1, 1).float()
        y = t.mm(x, w) + b.expand_as(x)
        plt.plot(x.numpy(), y.numpy())
        
        # true data
        x2, y2 = get_fake_data(batch_size=20)
        plt.scatter(x2.numpy(), y2.numpy())
        
        plt.xlim(0, 5)
        plt.ylim(0, 13)
        plt.show()
        plt.pause(0.5)
        
print(w.item(), b.item())
# print(w.data[0][0], b.data[0][0]) # 和上面等价

运行结果:
在这里插入图片描述

观察loss的变化:

plt.plot(losses)
plt.ylim(50, 500)

输出结果:
在这里插入图片描述
loss是在稳步变小。

三、手动计算梯度的公式

选自《深度学习》(花书):
在这里插入图片描述
记住上述公式 G B T GB^T GBT或者 A T G A^TG ATG即可,根据这个公式,根据这个公式,loss对w的梯度为 x T d y _ p r e d x^Tdy\_pred xTdy_pred.

四、关于输出为“nan nan”的情况

print(w.item(), b.item()),如果最后w和b的值输出都为nan,那么调小学习率就行了。我将学习率定为0.001都会遇到这个情况,定为0.0001就好了。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值