Ⅰ.class tf.train.Optimizer
优化器(optimizers)类的基类。这个类定义了在训练模型的时候添加一个操作的API。你基本上不会直接使用这个类,但是你会用到他的子类比如GradientDescentOptimizer
, AdagradOptimizer
, MomentumOptimizer
.等等这些。
后面讲的时候会详细讲一下GradientDescentOptimizer
这个类的一些函数,然后其他的类只会讲构造函数,因为类中剩下的函数都是大同小异的
Ⅱ.class tf.train.GradientDescentOptimizer
这个类是实现梯度下降算法的优化器。(结合理论可以看到,这个构造函数需要的一个学习率就行了)
__init__
(learning_rate, use_locking=False,name=’GradientDescent’)
作用:创建一个梯度下降优化器对象
参数:
learning_rate: A Tensor or a floating point value. 要使用的学习率
use_locking: 要是True的话,就对于更新操作(update operations.)使用锁
name: 名字,可选,默认是”GradientDescent”.
compute_gradients(loss,var_list=None,gate_gradients=GATE_OP,aggregation_method=None,colocate_gradients_with_ops=False,grad_loss=None)
作用:对于在变量列表(var_list)中的变量计算对于损失函数的梯度,这个函数返回一个(梯度,变量)对的列表,其中梯度就是相对应变量的梯度了。这是minimize()函数的第一个部分,
参数:
loss: 待减小的值
var_list: 默认是在GraphKey.TRAINABLE_VARIABLES.
gate_gradients: How to gate the computation of gradients. Can be GATE_NONE, GATE_OP, or GATE_GRAPH.
aggregation_method: Specifies the method used to combine gradient terms. Valid values are defined in the class AggregationMethod.
colocate_gradients_with_ops: If True, try colocating gradients with the corresponding op.
grad_loss: Optional. A Tensor holding the gradient computed for loss.
apply_gradients(grads_and_vars,global_step=None,name=None)
作用:把梯度“应用”(Apply)到变量上面去。其实就是按照梯度下降的方式加到上面去。这是minimize()函数的第二个步骤。 返回一个应用的操作。
参数:
grads_and_vars: compute_gradients()函数返回的(gradient, variable)对的列表
global_step: Optional Variable to increment by one after the variables have been updated.
name: 可选,名字
get_name()
minimize(loss,global_step=None,var_list=None,gate_gradients=GATE_OP,aggregation_method=None,colocate_gradients_with_ops=False,name=None,grad_loss=None)
作用:非常常用的一个函数
通过更新var_list来减小loss,这个函数就是前面compute_gradients() 和apply_gradients().的结合
Ⅲ.class tf.train.AdadeltaOptimizer
实现了 Adadelta算法的优化器,可以算是下面的Adagrad算法改进版本
构造函数:
tf.train.AdadeltaOptimizer.init(learning_rate=0.001, rho=0.95, epsilon=1e-08, use_locking=False, name=’Adadelta’)
作用:构造一个使用Adadelta算法的优化器
参数:
learning_rate: tensor或者浮点数,学习率
rho: tensor或者浮点数. The decay rate.
epsilon: A Tensor or a floating point value. A constant epsilon used to better conditioning the grad update.
use_locking: If True use locks for update operations.
name: 【可选】这个操作的名字,默认是”Adadelta”
tf.square(x, name=None)
Computes square of x element-wise.
对x内的所有元素进行平方操作
I.e., (y = x * x = x^2).
即 (y = x * x = x^2)。
Args:
x: A Tensor or SparseTensor. Must be one of the following types: half, float32, float64, int32, int64, complex64, complex128.
name: A name for the operation (optional).
参数:
x: 一个张量或者是稀疏张量。必须是下列类型之一:half, float32, float64, int32, int64, complex64, complex128.
name: 操作的名字 (可选参数).
Returns:
一个张量或者是稀疏张量。有着跟x相同的类型。
作者:HabileBadger
链接:http://www.jianshu.com/p/7a201b0814e3
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
tf.split(split_dim, num_split, value, name='split')
函數解說:將大的tensor分割成更小的tensor,第一個參數代表沿著那一維開始分割,第二個參數代表切成幾段,如下面例子,「5,30」沿著第一維也就是column開始切割,切成三段,因此就有3個「5,10」的tensor被分割出來
函數範例:
tf.reduce_mean(input_tensor,reduction_indices=None,keep_dims=False, name=None)
函數解說:將tensor取平均,第二個參數代表沿著那一維取平均,例如範例第二個,沿著第0維也就是row取平均得到「1.5,1.5」,手指沿著row的方向掃過,再如第3個範例,沿著第1維也就是column取平均得到[1,2],手指沿著column方向掃過
函數範例:
tf.reduce_sum(input_tensor,reduction_indices=None, keep_dims=False, name=None)
函數解說:將tensor加總起來,第二個參數代表沿著那一維加總,例如範例第二個,沿著第0維也就是row加總得到[2,2,2],手指沿著row的方向掃過,再如第3個範例,沿著第1維也就是column加總得到[3,3],手指沿著column方向掃過,第3個參數如果為True的話,那麼所切出來的長度會回復到1,如同第四個例子一樣,第五個例子表示可以不只沿著其中一個維度加總。
函數範例:
tf.reshape(tensor, shape, name=None)
函數解說:將tensor的維度重新改寫,-1代表自動計算該維度的數量
函數範例:
tf.matmul(a,b,ranspose_a=False,transpose_b=False,_is_sparse=False,_is_sparse=False,ame=None)
函數解說:將a,b兩個矩陣相乘,如果需要事先轉置的話,可以把個別的選項調成True,如果矩陣裏面包括很多0的話,可以調用spare=True轉為更有效率的演算法
函數範例:
tf.argmin(input, dimension, name=None)
函數解說:沿著需要的維度找尋最小值的索引值,最小由0開始
tf.mul(x, y, name=None)
函數解說:實現兩個矩陣點乘,兩個矩陣必須要相同維度
tf.one_hot(indices, depth, on_value=None, off_value=None, axis=None, dtype=None, name=None)
函數解說:沿著需要的深度製造出one_hot出來,-1代表全都給off_value,indices代表在那一格給on_value
0 2 -------->[1 0 0] [0 0 1]
1 -1 [0 1 0] [0 0 0]
函數範例:
tf.cast(x, dtype, name=None)
函數解說:將tensor轉換成其他type
函數範例:
tf.Variable.eval(session=None)
函數解說:顯示出某個tensor變數的值
函數範例:
tf.Variable.assign(value, use_locking=False)
函數解說:將tensor中的變數用value值取代,這function可以用來實現double DQN
tf.Variable.assign_sub(delta, use_locking=False)
函數解說:將tensor中的變數-delta值,然後取代
tf.train.Saver.save(sess,save_path,global_step=None,latest_filename=None,meta_graph_suffix='meta',write_meta_graph=True)
函數解說:將sess中的訓練參數存起來,一般都會先把前面縮寫,打成saver = tf.train.Saver(),然後以後就可以用saver直接調用
函數範例:
tf.train.Saver.restore(sess, save_path)
函數解說:用剛剛存sess的網路回復數據,save_path 沒有打的話會自動去找尋最近一次save所存的latest_checkpoint()
tf.train.get_checkpoint_state(checkpoint_dir,latest_filename=None)
函數解說:檢查checkpoint_dir資料夾中有無checkpoint這個資料,如果有,回傳checkpoint的資訊給它,底下是範例checkpoint檔案
tf.trainable_variables()
函數解說:回傳trainable=True的所有變數,並存成list的型態
函數說明:
以此網路為說明,v是一個list,如需要觀察各個變數的話,需要給出索引值才可取出,變數以兩兩為一組合,前面代表weight,後面代表bias
輸出為:
tf.concat(concat_dim, values, name='concat')
函數解說:將兩個tensor 連接在一起,dim=0代表從row開始連接起,1代表從col連接起
函數說明:
t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
tf.concat(0, [t1, t2]) ==> [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]
tf.concat(1, [t1, t2]) ==> [[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12]]
# tensor t3 with shape [2, 3]
# tensor t4 with shape [2, 3]
tf.shape(tf.concat(0, [t3, t4])) ==> [4, 3]
tf.shape(tf.concat(1, [t3, t4])) ==> [2, 6]