李沐 《动手学深度学习》学习笔记 (7)第一章 预备知识 第五节 自动求导

from mxnet import autograd, np, npx

npx.set_np()

x = np.arange(4.0)
x
array([0., 1., 2., 3.])
#attach_grad为一个张量的梯度分配内存
x.attach_grad()
#通过张量的grad属性可以访问梯度,初始化为0
x.grad
array([0., 0., 0., 0.])
# 把代码放到`autograd.record`内,以建⽴计算图
with autograd.record():
    y = 2 * np.dot(x, x)
y
array(28.)
y.backward()
x.grad
array([ 0.,  4.,  8., 12.])

1.5.2 非标量变量的反向传播

# 当我们对向量值变量`y`(关于`x`的函数)调⽤`backward`时,
# 将通过对`y`中的元素求和来创建⼀个新的标量变量。然后计算这个标量变量相对于`x`的梯度
with autograd.record():
    y = x * x
y.backward()
x.grad
array([0., 2., 4., 6.])

1.5.3 分离计算

with autograd.record():
    y = x * x
    u = y.detach()
    z = u * x
z.backward()
x.grad, u
(array([0., 1., 4., 9.]), array([0., 1., 4., 9.]))
with autograd.record():
    y = x * x
    w = y * x
w.backward()
x.grad, y
(array([ 0.,  3., 12., 27.]), array([0., 1., 4., 9.]))

1.5.4 Python控制流的梯度计算

def f(a):
    b = a * 2
    while np.linalg.norm(b) < 1000:
        b = b * 2
    if b.sum() > 0:
        c = b
    else:
        c = 100 * b
    return c
a = np.random.normal()
a.attach_grad()
with autograd.record():
    d = f(a)
d.backward()

1.6 概率

fair_probs = [1.0 / 6] * 6
fair_probs
[0.16666666666666666,
 0.16666666666666666,
 0.16666666666666666,
 0.16666666666666666,
 0.16666666666666666,
 0.16666666666666666]
test = 6 * [1.0]
test, type(test)
([1.0, 1.0, 1.0, 1.0, 1.0, 1.0], list)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值