学习笔记3 反向传播

1、反向传播

利用损失函数对w的导数,来更新w

c0842166e6e144829fa51859993d3e0f.png

但是对于复杂模型,有成千上万个参数,无法直接给出固定的显示的损失函数解析式。反向传播就是为了解决这个问题。

2579ee20b9c04d7cb8382c99390a2785.png

 每计算一层,就会使得最终的W和b不断调整,这样就实现了参数逼近的过程bc35944b713241b39703e5977a68d7e4.png

 2、前向传播

前馈计算loss,反向计算导数

cd97f50a34ab4eb284f7a8496939c233.png

如果要计算∂ L o s s  \∂w,按照你做题的思路求导,首先计算出​​​各个导数的式子,再代入计算。

程序中也是如此,按照链式法则进行求导计算,从最底层出发,将各个导数值和函数值都计算出来。
cae73820d60f4e67bcc2c49a51fa43bf.png

构建计算图可以直接用张量计算,构建权重时必须使用data计算。

61f90279acb5455c9edd982fe3fee4b9.png

 

每进行一次计算,计算图就会动态更新一次。由y和ytrain进行比较得出loss。

e9b4d64c3ee94c94be24dec3acec81cb.png

 

3、tensor 

 Tensor是TensorFlow中的基本数据类型,

Tensor中主要元素的是Data(数据)和Grad(导数)

4、课程实验

for epoch in range(100):
    for x, y in zip(x_data, y_data):
        l = loss(x, y)  ##1.计算loss(前向)
        l.backward()    ##2.计算偏导并保存在变量中(后向传播)
        print('\tgrad:', x, y, w.grad.item())
        w.data = w.data - 0.01 * w.grad.data    #3. 用梯度下降做更新
        w.grad.data.zero_()# grad 设置为0

代码注释中的 1 2 3 步 可以看下面的图

f4b7718761c94b5d8ea48cc960400605.png

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

daguantou

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值