with tf.GradientTape() as tape 梯度带 Tensorflow自动求导API

本文介绍了TensorFlow的tf.GradientTape API,该API用于自动微分,记录上下文中的操作以计算函数的导数。在TensorFlow中,trainable的tf.Variable可以自动求导,也可以通过watch方法手动管理。文章展示了从简单的一元到多元函数的求导示例,并讨论了在网络训练中的应用,特别是在误差反向传播算法中的权重更新过程。
摘要由CSDN通过智能技术生成

梯度带(Gradientape)的定义

TensorFlow 为自动微分提供了 tf.GradientTape API ,根据某个函数的输入变量来计算它的导数。Tensorflow 会把 ‘tf.GradientTape’ 上下文中执行的所有操作都记录在一个磁带上 (“tape”)。 然后基于这个磁带和每次操作产生的导数,用反向微分法(“reverse mode differentiation”)来计算这些被“记录在案”的函数的导数。

使用范围

tf.Variable 或 tf.compat.v1.get_variable (相对于tf.constant)并设置为Trainable的变量可进行自动求导。
或者使用watch方法手动进行管理的变量的求导。

watch方法

最简单的实现y=x*x的求导

x = tf.constant(3.0)
with tf.GradientTape() as g:
  g.watch(x)
  y = x * x
dy_dx = g.gradient(y, x) # Will compute to 6.0

y=x*x的二阶求导

x = tf.constant(3.0)
wi
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值