tf.reduce_mean() || tf.contrib.rnn.BasicRnnCell || tf.contrib.rnn.BasicLSTMCell || tf.reshape()

tf.reduce_mean()

(或tf.reduce_max()一个是求平均值,一个是求最大值)

# 'x' is [[1., 2.]
#         [3., 4.]]

x是一个2维数组,分别调用reduce_*函数如下:

首先求平均值:

tf.reduce_mean(x) ==> 2.5 #如果不指定第二个参数,那么就在所有的元素中取平均值
tf.reduce_mean(x, 0) ==> [2.,  3.] #指定第二个参数为0,则第一维的元素取平均值,即每一列求平均值
tf.reduce_mean(x, 1) ==> [1.5,  3.5] #指定第二个参数为1,则第二维的元素取平均值,即每一行求平均值

同理,还可用tf.reduce_max()求最大值等

 

tf.contrib.rnn.BasicRnnCell

BasicRNNCell是最基本的RNN cell单元。 
输入参数:
num_units:RNN层神经元的个数 
input_size(该参数已被弃用) 
activation: 内部状态之间的激活函数 
reuse: Python布尔值, 描述是否重用现有作用域中的变量

 

 

tf.contrib.rnn.BasicLSTMCell

BasicLSTMCell类是最基本的LSTM循环神经网络单元。 
输入参数:
num_units: LSTM cell层中的单元数 
forget_bias: forget gates中的偏置 
state_is_tuple: 还是设置为True吧, 返回 (c_state , m_state)的二元组 
activation: 状态之间转移的激活函数 
reuse: Python布尔值, 描述是否重用现有作用域中的变量

 

 

tf.reshape()

reshape即把矩阵的形状变一下
看一下例子:

tensor = tf.constant([1, 2, 3, 4, 5, 6, 7,8])

 sess.run(tf.initialize_all_variables())
#[1 2 3 4 5 6 7 8]

tensorReshape = tf.reshape(tensor,[2,4])
#[[1 2 3 4]
#[5 6 7 8]]

tensorReshape = tf.reshape(tensor,[1,2,4])
#[[[1 2 3 4]
#[5 6 7 8]]]

tensorReshape = tf.reshape(tensor,[-1,2,2])
#[[[1 2]
#[3 4]]

#[[5 6]
#[7 8]]]
#所以-1代表的含义是不用我们自己指定这一维的大小,函数会自动计算,但列表中只能存在一个-1
#比如:

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值