转自于:点击打开链接
在使用tensorflow加载网络权重的时候,直接使用tf.train.Saver().restore(sess, ‘ckpt’)的话是直接加载了全部权重,我们可能只需要加载网络的前几层权重,或者只要或者不要特定几层的权重,这时可以使用下面的方法:
var = tf.global_variables()
var_to_restore = [val for val in var if 'conv1' in val.name or 'conv2'in val.name]
saver = tf.train.Saver(var_to_restore )
saver.restore(sess, os.path.join(model_dir, model_name))
var_to_init = [val for val in var if 'conv1' not in val.name or 'conv2'not in val.name]
tf.initialize_variables(var_to_init)
这样就只从ckpt文件里只读取到了两层卷积的卷积参数,前提是你的前两层网络结构和名字和ckpt文件里定义的一样。将var_to_restore和var_to_init反过来就是加载名字中不包含conv1、2的权重。
如果使用tensorflow的slim选择性读取权重的话就更方便了
exclude = ['layer1', 'layer2']
variables_to_restore = slim.get_variables_to_restore(exclude=exclude)
saver = tf.train.Saver(variables_to_restore) # 这句话千万别忘了, 需要重新定义saver,方能将所有训练好的权重进行保存
saver.restore(sess, os.path.join(model_dir, model_name))
需要重新定义saver,方能将所有训练好的权重进行保存
saver.restore(sess, os.path.join(model_dir, model_name))
这样就完成了不读取ckpt文件中’layer1’, ‘layer2’权重
---------------------------------------分割线-------------------------------------------------------
今天发现slim还有一种方法进行选择性加载ckpt部分权重:
exclude = ['layer_weight','WD2_conv', 'BD2']
variables_to_restore = slim.get_variables_to_restore(exclude=exclude)
init_fn = slim.assign_from_checkpoint_fn(filename, variables_to_restore)
init_fn(self.sess)