基于Tensorflow2.1的Mask RCNN兼容性问题(Variables were created within a Lambda layer (anchors))

有Tensorflow2.1兼容性问题的Mask RCNN的github项目:

https://github.com/matterport/Mask_RCNN

报错信息:

ValueError: The following Variables were created within a Lambda layer (anchors) but are not tracked by said layer: <tf.Variable 'anchors/Variable:0' shape=(1, 261888, 4) dtype=float32> The layer cannot safely ensure proper Variable reuse across multiple calls, and consquently this behavior is disallowed for safety. Lambda layers are not well suited to stateful computation; instead, writing a subclassed Layer is the recommend way to define layers with Variables.

问题原因:

从Tensorflow2.0开始,由于安全性原因,官方不推荐使用Lambda layer,需要使用subclass(Layer子类)方式实现。

 

解决方案:

重写:

anchors = KL.Lambda(lambda x: tf.Variable(anchors), name="anchors")(input_image)

为:

class AnchorsLayer(tf.keras.layers.Layer):
                def __init__(self, name="anchors", **kwargs):
                    super(AnchorsLayer, self).__init__(name=name, **kwargs)

                def call(self, anchor):
                    return anchor

                def get_config(self) :
                    config = super(AnchorsLayer, self).get_config()
                    return config

            anchor_layer = AnchorsLayer(name="anchors")
            anchors = anchor_layer(anchors)

 

Tensorflow2.1 文档关于Lambda layer的详细说明:

https://www.tensorflow.org/api_docs/python/tf/keras/layers/Lambda

关于在keras下编写自定义layer的详细说明:

https://www.tensorflow.org/guide/keras/custom_layers_and_models

  • 9
    点赞
  • 20
    收藏
    觉得还不错? 一键收藏
  • 19
    评论
### 回答1: 在使用TensorFlow时,有时会出现“tensorflow: gradients do not exist for variables”(变量的梯度不存在)的错误提示,原因是在定义模型时没有正确地设置梯度计算方法。解决这个问题需要以下步骤: 1. 确保定义模型时使用的变量可被优化。通常情况下,变量需要设置trainable=True才可以被优化。 2. 使用tf.GradientTape记录计算图中的操作,以便TensorFlow可以自动计算梯度。需要记录的操作包括损失函数计算、变量更新等。 3. 确保损失函数是可微分的,否则无法计算梯度。通常情况下,使用TensorFlow提供的损失函数可以避免这个问题。 4. 如果出现求导错误的情况,可以先检查损失函数是否正确设置,或者使用tf.debugging.check_numerics检查计算过程中是否存在NaN或inf值。 总之,遵循这些步骤可以避免“tensorflow: gradients do not exist for variables”的错误提示,确保模型训练能够正常进行。 ### 回答2: 在使用 TensorFlow 进行深度学习模型训练的过程中,有时候会出现 “tensorflow:gradients do not exist for variables” 的错误提示。这种问题通常是在神经网络梯度反向传播求导时出现的,可能是因为某些变量没有被正确传递,导致模型在反向传播时找不到相应的梯度。 为了解决这个问题,我们需要对模型中的各个变量进行检查和修正。具体步骤如下: 1. 检查代码 首先,需要确保自己的代码没有错误。可以检查代码中是否有未定义的变量或未声明的函数等。 2. 检查模型结构 模型结构不正确也可能导致梯度不存在的错误。可以检查模型的 input 和 layers 是否正确,卷积神经网络和循环神经网络模型可能需要特殊处理。 3. 检查优化器 优化器可能在传递变量时出现问题。可以检查优化器的参数是否正确,如学习率等。 4. 检查损失函数 损失函数对于模型训练至关重要,如果损失函数计算不正确,可能导致梯度不存在的错误。可以使用 TensorFlow 的计算图检查工具来检查损失函数计算是否正确。 5. 检查数据 数据不完整或格式不正确也可能导致错误。可以检查数据读取的代码是否正确,数据格式是否正确等。 总之,要排除 "tensorflow:gradients do not exist for variables" 错误,需要认真检查代码、模型结构、优化器、损失函数和数据等方面的问题,并逐一解决。平时在写代码的时候,可以多用 TensorFlow 提供的调试工具,如 TensorBoard 等,帮助我们更快地找到出错的位置,从而更快地修复问题。 ### 回答3: 在使用 TensorFlow 进行神经网络训练时,可能会出现 "tensorflow:gradients do not exist for variables" 的错误提示信息。这是因为在计算梯度的过程中,某些变量的梯度无法被计算得到。 为了解决这个问题,我们需要进行以下步骤: 1. 检查代码中是否存在错误。首先,需要检查代码中是否存在语法错误或者逻辑错误,及时排除。 2. 确认是否设置了必要的变量。在使用 TensorFlow 进行计算时,需要设置必要的变量,并对其进行初始化。如果某些变量没有被正确设置或初始化,会导致梯度计算出错。 3. 确认是否合理地设置了损失函数。在训练神经网络时,需要选择合适的损失函数,并正确地设置其参数,否则也会导致梯度计算出错。 4. 利用 tf.clip_by_global_norm 函数进行梯度剪裁。在训练神经网络时,由于梯度可能会非常大,可能会导致数值不稳定。为了避免这种情况,我们可以使用 tf.clip_by_global_norm 函数对梯度进行剪裁,保证其大小在一定范围内。 5. 使用更低的学习率进行训练。如果训练过程中出现了 "tensorflow:gradients do not exist for variables" 的错误提示,可能是因为学习率过高。我们可以尝试降低学习率,再进行训练。 总之,"tensorflow:gradients do not exist for variables" 的错误提示是在神经网络训练过程中常见的错误。我们需要仔细排查代码中可能存在的问题,并采取相应的措施来修复这个问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 19
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值