tensorflow中的关键字global_step使用

global_step经常在滑动平均,学习速率变化的时候需要用到,这个参数在tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_steps)里面有,系统会自动更新这个参数的值,从1开始。

例如:

[python]  view plain  copy
  1. import tensorflow as tf;    
  2. import numpy as np;    
  3. import matplotlib.pyplot as plt;    
  4.   
  5. x = tf.placeholder(tf.float32, shape=[None1], name='x')  
  6. y = tf.placeholder(tf.float32, shape=[None1], name='y')  
  7. w = tf.Variable(tf.constant(0.0))  
  8.   
  9. global_steps = tf.Variable(0, trainable=False)  
  10. learning_rate = tf.train.exponential_decay(0.1, global_steps, 102, staircase=False)  
  11. loss = tf.pow(w*x-y, 2)  
  12.   
  13. train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_steps)  
  14.   
  15. with tf.Session() as sess:  
  16.     sess.run(tf.initialize_all_variables())  
  17.     for i in range(10):  
  18.         sess.run(train_step, feed_dict={x:np.linspace(1,2,10).reshape([10,1]),  
  19.             y:np.linspace(1,2,10).reshape([10,1])})  
  20.         print sess.run(learning_rate)  
  21.         print sess.run(global_steps)  
输出:

0.107177
1
0.11487
2
0.123114
3
0.131951
4
0.141421
5
0.151572
6
0.16245
7
0.17411
8
0.186607
9
0.2
10

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值