Tensoflow实战
笨鸟不走
这个作者很懒,什么都没留下…
展开
-
再次被tensorflow bn层坑爹
之前写过躺坑tensorflow bn层的博客,今天发现又被坑了问题:tf.contrib.layers.batch_norm()和tf.layers.batch_normalization()这两个bn默认参数是不一样的。前者默认scale=False(妈蛋,出于啥脑回路会想着写成False嘛),后者默认True。tf.contrib.layers.batch_norm( inputs, decay=0.999, center=True, scale=False,原创 2020-09-30 16:33:58 · 522 阅读 · 0 评论 -
解决“The name ‘x:0‘ refers to a Tensor which does not exist. The operation, ‘x‘, does not exist in the
解决 Tensorflow 重载meta图时"The name 'x:0' refers to a Tensor which does not exist. The operation, 'y', does not exist in the graph."问题描述解决过程总结(嫌啰嗦请直接看总结部分)问题描述今天tensorflow重载网络with tf.Session() as sess: sess.run(tf.global_variables_initializer())原创 2020-09-24 13:35:13 · 5612 阅读 · 6 评论 -
今天又一次栽在了batch normalizaiton
1、训练baseLine的时候,is_training 没有传达到自己编写的子函数,导致baseline的bn层没有学习。修改后可能准确率会进一步提升2、在分解实验中,bn层是不该学习的,但是却set is_training=True。这样的后果是,虽然一般层被冻结了,bn层的beta,gamma不在var_list中也被冻结了,但是moving_men/variance却在fine_tune过程中改变了,而这是在分解实验中不允许的。这也导致了将W_ave迁移到joint method中,初始准确率近乎为原创 2020-06-17 15:26:22 · 174 阅读 · 0 评论