mxnet中自动求梯度遇到的坑:梯度不变化

问题描述

最近笔者在自学深度学习,为了巩固mxnet自动求梯度的用法,决定手动实现一下最简单的多元线性回归算法
但在实现过程中,发现最终的结果与实际值相差很大,最后查看日志发现,是梯度值一直都没有变化
原始的部分代码如下

solve_w=nd.random.normal(scale=0.01,shape=(3,))
solve_w.attach_grad()

with autograd.record():
    a = loss(solve_w)
a.backward()

for i in range(1000):
    grad=solve_w.grad
    print(grad)
    solve_w[:]=solve_w-0.01*grad

其中loss是平方均值损失函数,通过在这里面添加日志发现,这个函数只被调用了一次

解决方案

最后通过比对与网上的代码,发现

with autograd.record():
    a = loss(solve_w)
a.backward()

这段代码需要放在for循环里面
最终代码改成

solve_w=nd.random.normal(scale=0.01,shape=(3,))
solve_w.attach_grad()

for i in range(1000):
    with autograd.record():
        a = loss(solve_w)
    a.backward()

    grad=solve_w.grad
    print(grad)
    solve_w[:]=solve_w-0.01*grad

便可以得出正确结果了

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值