tensorflow学习笔记

1、训练
loss = tf.nn.softmax_cross_entropy_with_logits(y, labels=labels)
cost = tf.reduce_sum(loss)
# global_steps = tf.Variable(0)
# learning_rate = tf.train.exponential_decay(learning_rate_orig, global_steps, num_minibatches * 40, 0.1, staircase = True)
# train = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
# train = tf.train.AdamOptimizer(learning_rate).minimize(cost)
train = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
2、测试
with tf.name_scope(“test”):
correct_predict = tf.equal(tf.argmax(tf.nn.softmax(model.fc1), 1), tf.argmax(labels, 1))
accuracy = tf.reduce_mean(tf.cast(correct_predict, tf.float32))
3、保存模型
save = tf.train.Saver()
save.save(sess, checkpoint_path, global_step=i )

4、加载模型
#获取要加载的变量方式一
exclude=[‘Mixed_7c’,‘Mixed_7b’,‘AuxLogits’,‘AuxLogits’,‘Logits’,‘Predictions’]
variables_to_restore=slim.get_variables_to_restore(exclude=exclude)
#方式二
var1 = tf.global_variables() #获取全局变量
var2 = tf.local_variables() #获取局部变量
saver=tf.train.Saver(variables_to_restore)
saver.restore(sess, model_path)
save = tf.train.Saver()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值