Pytorch深度学习实践—反向传播算法

 源自B站 刘二大人 ,传送门PyTorch 深度学习实践 梯度下降法

一、计算图(Computation Graph)

计算图是一种用于描述数学计算的图形模型,常用于神经网络的前向传播和反向传播算法中

在计算图中,节点代表数学运算,边代表运算结果之间的依赖关系,形成了一张有向无环图。这个图可以通过一系列的节点之间的计算和数据传递来完成整个计算过程。

计算图的前向传播即从输入数据开始,按照节点之间的依赖关系,通过一步步的计算最终得到输出结果的过程。反向传播则是根据损失函数对输出结果的偏导数,反向逐层计算对输入变量的偏导数,用于优化模型参数。

二、Tensor(张量)

w(权重)是Tensor类型,其中包含data和grad,data用于储存权重本身的值,grad用于储存损失函数对权重的倒数(即梯度)。

张量之间的计算都是建立计算图的过程,如果需要对w进行梯度计算,那么在建立的计算图中,所有与w相关的都要进行梯度计算

import torch
a = torch.tensor([1.0])
a.requires_grad = True 
print(a)
print(a.data)
print(a.type())             
print(a.data.type())       
print(a.grad)
print(type(a.grad))

 从结果可以看出,在初始状态下,data的类型为Tensor,而grad的类型为None。在后续反向传播代码中,调用l.backward()函数后,grad的类型会由None更新为Tensor,同时w.grad.data可以用于后续w.data的更新计算。

二、反向传播

本算法中反向传播主要体现在,l.backward()。该函数会把计算图中所有需要梯度(grad)的地方进行计算,然后把梯度都存在对应的待求的参数中,最终计算图被释放。

import torch

x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]

#赋予tensor中的data
w = torch.Tensor([1.0])
#设定需要计算梯度grad
w.requires_grad = True

#模型y=x*w 建立计算图
def forward(x):
    '''
    w为Tensor类型
    x强制转换为Tensor类型
    通过这样的方式建立计算图
    '''
    return x * w

def loss(x, y):
    y_pred = forward(x)
    return (y_pred - y) ** 2

print ("predict  (before training)", 4, forward(4).item())

for epoch in range(100):
    for x,y in zip(x_data,y_data):
        #创建新的计算图
        l = loss(x,y)
        #进行反馈计算,此时才开始求梯度,此后计算图进行释放
        l.backward()
        #grad.item()取grad中的值变成标量
        print('\tgrad:',x, y, w.grad.item())
        #单纯的数值计算要利用data,而不能用张量,否则会在内部创建新的计算图
        w.data = w.data - 0.01 * w.grad.data
        #把权重梯度里的数据清零
        w.grad.data.zero_()
    print("progress:",epoch, l.item())

print("predict (after training)", 4, forward(4).item())
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值