tf求解梯度下降

自动求导记录器tf.GradientTape()

在with上下文间的所有计算都会被记录下来,通过调用gradient()进行求导

import tensorflow as tf

x = tf.Variable(initial_value=4.)
with tf.GradientTape() as tape:     
    y = tf.square(x)
y_grad = tape.gradient(y, x)        
print(y, y_grad)

y=x²,当x=4时,y=16
y关于x的导数y’=2x,当x=4时,y=8
结果

tf.Tensor(16.0, shape=(), dtype=float32)
tf.Tensor(8.0, shape=(), dtype=float32)

自动更新参数optimizer.apply_gradients()

optimizer.apply_gradients(grads_and_vars=zip(grads, variables))

grads为梯度,等效于前面的‘y_grad = tape.gradient(y, x) ’,variables为更新的变量

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值