2_auto_gradient

自动梯度

  • 前向传播(Forward Propagation) 是从input,经过一层层的layer,不断计算每一层的z和a, 得到输出y^ 的过程,计算出了y^,就可以根据它和真实值y的差别来计算损失(loss)。
  • 反向传播(Backward Propagation) 是根据损失函数L(y^,y)来反方向地计算每一层的z、a、w、b的偏导数(梯度),从而更新参数。
import torch
from torch.autograd import Variable


# 定义模型
class Model(object):
    def __init__(self):
        super(Model, self).__init__()

    # 前向传播函数
    def forward(self, x):
        return x * w

    # 损失函数
    def loss(self, x, y):
        y_pred = self.forward(x)
        return pow((y_pred - y), 2)

    # 执行
    def run(self):
        print('predict (before training)', 4, self.forward(4).item())
        # 循环训练
        for epoch in range(10):
            for x_val, y_val in zip(x_data, y_data):
                l = self.loss(x_val, y_val)
                # 反向传播
                l.backward()
                print('\tgrad:', x_val, y_val, w.grad.item())
                w.data = w.data - 0.01 * w.grad.data
                #  更新权重后手动将梯度归零
                w.grad.data.zero_()
            print('process:', epoch, l.data[0])

        print('predict (after training)', 4, self.forward(4).item())


if __name__ == "__main__":
    print("Life is short, You need Python!")
    x_data = [1.0, 2.0, 3.0]
    y_data = [2.0, 4.0, 6.0]
    w = Variable(torch.Tensor([1.0]), requires_grad=True)
    m = Model()
    m.run()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值