tensorflow:提示找不到Adam或者RMSProp变量,Did you mean to set reuse=None in VarScope?

错误的完整信息

Variable discriminator/conv/weights/RMSProp/does not exist, or was not created with tf.get_variable(). Did you mean to set reuse=None in VarScope?

这个错误是在使用优化函数


tf.train.RMSPropOptimizer()


tf.train.AdamOptimizer()

引起的,使用梯度下降算法反而没有出现问题,
并且使用了
tf.get_variable_scope().reuse_variables()
原因是使用Adam或者RMSProp优化函数时,Adam函数会创建一个Adam变量,目的是保存你使用tensorflow创建的graph中的每个可训练参数的动量,但是这个Adam是在reuse=True条件下创建的,之后reuse就回不到None或者False上去,当reuse=True,就会在你当前的scope中reuse变量,如果在此scope中进行优化操作,就是使用AdamOptimizer等,他就会重用slot variable,这样子会导致找不到Adam变量,进而报错。

设置reuse=True的地方是

tf.get_variable_scope().reuse_variables()

或者

With tf.variable_scope(name) as scope :
       Scope.reuse_variables()

一般在运行GAN程序的时候会用到这段代码。解决方法就是将这个scope独立出来,reuse=True就只在当前scope中起作用,使用

With tf.variable_scope(tf.get_variables_scope())

把它放在需要调用函数的地方,我这里是discriminator函数:
代码更改如下所示:
Wrong:

       G = generator(z)
       D, D_logits = discriminator(images)
       samples = sampler(z)
       D_, D_logits_ = discriminator(G, reuse=True)

True:

   with tf.variable_scope("for_reuse_scope"):
       G = generator(z)
       D, D_logits = discriminator(images)
       samples = sampler(z)
       D_, D_logits_ = discriminator(G, reuse=True)

我看有的人说在使用优化函数的上面加with。。。这句话,但是我试用了并没有用。
类似这样:

   with tf.variable_scope(tf.get_variable_scope(), reuse=None):#新增
       d_optim = tf.train.RMSPropOptimizer(LR).minimize(d_loss,var_list=d_vars, global_step=global_step)
       g_optim = tf.train.RMSPropOptimizer(LR).minimize(g_loss,var_list=g_vars, global_step=global_step)

另外,出现此问题的原因也可能是在该复用网络参数的时候没有复用,复用时要设置reuse= True

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值