tensorflow2自动微分运算GradientTape

import tensorflow as tf
w = tf.Variable([[1.0]])
with tf.GradientTape() as t:
    loss = w * w
dw = t.gradient(loss, w)
dw

求w*w 在w=1.0处的导数

输出:

<tf.Tensor: id=39, shape=(1, 1), dtype=float32, numpy=array([[2.]], dtype=float32)>

再计算一次:

dw = t.gradient(loss, w)

报错:RuntimeError: GradientTape.gradient can only be called once on non-persistent tapes.

注意两点:

1、求在某处w的导数,w必须为浮点类型

2、GradientTape 占用的资源默认情况下dw = t.gradient(loss, w)计算完毕就会立即释放

求多个微分,设置GradientTape 的persistent参数

w = tf.constant(3.0)
with tf.GradientTape(persistent=True) as t:
    t.watch(w)
    y = w * w
    z = y * y
dy_dw = t.gradient(y, w)
print(dy_dw)
dz_dw = t.gradient(z, w)
print(dz_dw)
tf.Tensor(6.0, shape=(), dtype=float32)
tf.Tensor(108.0, shape=(), dtype=float32)

dy_dw = t.gradient(y, w)、dz_dw = t.gradient(z, w)计算完后不会释放资源

再计算一次

dz_dw = t.gradient(z, w)
print(dz_dw)

输出:tf.Tensor(108.0, shape=(), dtype=float32)

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值