tensorflow代码学习:梯度裁剪

tvars = tf.trainable_variables() # 得到所有训练的变量,这些变量才会有梯度
all_grads = tf.gradients(self.loss, tvars) # 求得loss对所有变量的梯度
grads, _ = tf.clip_by_global_norm(all_grads, grad_clip) # 将所有梯度乘以比例
train_op = tf.train.AdamOptimizer(learning_rate) # 优化器
self.optimizer = train_op.apply_gradients(zip(grads, tvars)) # 这个优化器计算的所有变量都进行梯度裁剪

Gradient Clipping的引入是为了处理gradient explosion或者gradients vanishing的问题。当在一次迭代中权重的更新过于迅猛的话,很容易导致loss divergence。Gradient Clipping的直观作用就是让权重的更新限制在一个合适的范围。

具体的细节是
1.在solver中先设置一个clip_gradient
2.在前向传播与反向传播之后,我们会得到每个权重的梯度diff,这时不像通常那样直接使用这些梯度进行权重更新,而是先求所有权重梯度的平方和sumsq_diff,如果sumsq_diff > clip_gradient,则求缩放因子scale_factor = clip_gradient / sumsq_diff。这个scale_factor在(0,1)之间。如果权重梯度的平方和sumsq_diff越大,那缩放因子将越小。
3.最后将所有的权重梯度乘以这个缩放因子,这时得到的梯度才是最后的梯度信息。

这样就保证了在一次迭代更新中,所有权重的梯度的平方和在一个设定范围以内,这个范围就是clip_gradient.

还有另一个裁剪函数

optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)
gvs = optimizer.compute_gradients(loss)
capped_gvs = [(tf.clip_by_value(grad, -1., 1.), var) for grad, var in gvs]
train_op = optimizer.apply_gradients(capped_gvs)


引用

tf.clip_by_global_norm理解 写的非常好

How to apply gradient clipping in TensorFlow?

TensorFlow中的梯度裁剪是一种常用的技术,用于限制学习算法中的梯度值大小,以避免梯度爆炸或消失的问题。 在深度学习中,通过反向传播算法计算梯度,并使用其来更新模型参数。然而,梯度可能会变得非常大,导致参数更新过大,这称为梯度爆炸。另一方面,梯度也可能变得非常小,导致参数更新缓慢,这称为梯度消失。这两个问题都会影响模型的训练和性能。 为了解决这些问题,可以使用梯度裁剪梯度裁剪通过设置一个阈值来限制梯度的大小,如果梯度的范数超过了这个阈值,就对梯度进行缩放,从而将其限制在合理的范围内。梯度裁剪可以在反向传播之前或之后应用,具体取决于具体的实现方式。 在TensorFlow中,可以使用tf.clip_by_value或tf.clip_by_norm等函数来实现梯度裁剪。tf.clip_by_value函数通过限制梯度的数值范围来进行裁剪。tf.clip_by_norm函数将梯度视为向量,并通过将其缩放到指定的范数来进行裁剪。 例如,可以使用以下代码TensorFlow中对模型的梯度进行裁剪: ``` optimizer = tf.train.GradientDescentOptimizer(learning_rate) gradients, variables = zip(*optimizer.compute_gradients(loss)) clipped_gradients, _ = tf.clip_by_value(gradients, -threshold, threshold) train_op = optimizer.apply_gradients(zip(clipped_gradients, variables)) ``` 这里,首先使用optimizer.compute_gradients函数计算梯度和变量,然后使用tf.clip_by_value函数对梯度进行裁剪,最后使用optimizer.apply_gradients函数将裁剪后的梯度应用到变量上。 梯度裁剪是一种常用的技术,可以有效地处理梯度爆炸和梯度消失问题,提高模型训练的稳定性和收敛性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值