tensorflow中遇到的问题汇总

   (1)

使用Adamoptimizer 等优化器时,载入权重进行再训练时,有可能会提示 ‘...kernel/adam_1 not found in checkpoint’。adam_1等参数不在tf.GraphKeys.TRAINABLE_VARIABLES这个集合(tf.trainable_variables())里。

因为:saver(默认保存所有可以保存的变量(defaults to the list of all saveable objects.))在不传入参数名称时,是按照已经定义好的图来载入对应的可保存的变量参数值。

saver = tf.train.Saver()

此问题,可以换一种载入模型的方式,用:

saver = tf.train.import_meta_graph(r'./model/themodel.meta')
with tf.Session() as sess:
    saver.restore(sess, r'./model/themodel')

来解决。

使用tf.train.import_meta_graph时,不需要自己再定义graph,但是如果之前定义了graph_0,graph_0将会被覆盖掉。所以,使用这种方法来定义graph时,不能自己再重新定义graph。要使用某个op,可以在第一次训练时,使用

tf.add_to_collection('train_op', train_op)# 'train_op'为任意起的一个字符串,定义了一个自己的collection
之后import_meta_graph()后,用
train_op = tf.get_collection('train_op')[0]
来获取相应的op。(类似的,可以用tf.train.export_meta_graph()来保存graph,tf.train.Saver()会默认保存graph,即.meta文件。)点击打开链接

      ps:若载入的模型之前不是保存的所有模型参数(tf.globle_variables())的话,有可能会出问题,因为有的参数没有被初始化(未使用tf.global_variables_initializer())。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值