关于使用Tensorflow时,Optimizer定义的位置不正确时出现的错误

参考:
1. https://github.com/tensorflow/tensorflow/issues/7244
2. https://stackoverflow.com/questions/47765595/tensorflow-attempting-to-use-uninitialized-value-beta1-power?rq=1

今天在尝试将ImageNet预训练的mobilenet v2迁移到我的抓取数据集时遇到了几个问题。
设置好想要restore的variable,然后进行saver.restore时出现了类似参考1中的问题,提示checkpoint中未找到许多类似于“…BatchNorm/beta/Adam”的参数,这个问题是由于“defined the variables to restore after I created my train_op”引起的,因此要把实例化tf.train.Saver的操作放在定义optimizer之前进行。

另外还需要注意的是,Adam Optimizer自己本身含有一些Variables,因此初始化变量的操作必须在定义Adam Optimizer之后,否则就会出现如参考2中提示使用了未初始化的变量的错误。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值