tf简单例子

y=Ax+B(A、B是常量),这是一条非常简单的数学方程式,有小学基础的人应该都知道。

我现在有很多的x和y值,所以问题就是如何通过这些x和y值来得到A和B的值?

代码test.py如下:

 import numpy as np #这是Python的一种开源的数值计算扩展,非常强大
import tensorflow as tf  #导入tensorflow

##构造数据##
x_data=np.random.rand(100).astype(np.float32) #随机生成100个类型为float32的值
y_data=x_data*0.1+0.3  #定义方程式y=x_data*A+B
##-------##

##建立TensorFlow神经计算结构##
weight=tf.Variable(tf.random_uniform([1],-1.0,1.0))
biases=tf.Variable(tf.zeros([1]))     
y=weight*x_data+biases
##-------##

loss=tf.reduce_mean(tf.square(y-y_data))  #判断与正确值的差距
optimizer=tf.train.GradientDescentOptimizer(0.5) #根据差距进行反向传播修正参数
train=optimizer.minimize(loss) #建立训练器

init=tf.global_variables_initializer() #初始化TensorFlow训练结构
sess=tf.Session()  #建立TensorFlow训练会话
sess.run(init)     #将训练结构装载到会话中

for  step in range(400): #循环训练400次
     sess.run(train)  #使用训练器根据训练结构进行训练
     if  step%20==0:  #每20次打印一次训练结果
        print(step,sess.run(weight),sess.run(biases)) #训练次数,A值,B值

执行pyhton  1.py,结果如下:

0 [0.53761494] [0.09637235]
20 [0.1971053] [0.25049835]
40 [0.12194208] [0.28881454]
60 [0.10495806] [0.29747254]
80 [0.10112034] [0.2994289]
100 [0.10025313] [0.29987097]
120 [0.10005721] [0.29997087]
140 [0.10001294] [0.29999343]
160 [0.10000292] [0.29999852]
180 [0.10000066] [0.29999968]
200 [0.10000016] [0.29999992]
220 [0.10000011] [0.29999995]
240 [0.10000011] [0.29999995]
260 [0.10000011] [0.29999995]
280 [0.10000011] [0.29999995]
300 [0.10000011] [0.29999995]
320 [0.10000011] [0.29999995]
340 [0.10000011] [0.29999995]
360 [0.10000011] [0.29999995]

380 [0.10000011] [0.29999995]

解释:

tf.reduce_max,tf.reduce_mean

求最大值tf.reduce_max(input_tensor, reduction_indices=None, keep_dims=False, name=None)
求平均值tf.reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None)
参数1--input_tensor:待求值的tensor。
参数2--reduction_indices:在哪一维上求解。
参数(3)(4)可忽略
# 'x' is [[1., 2.]
#         [3., 4.]]
x是一个2维数组,分别调用reduce_*函数如下:
首先求平均值:
tf.reduce_mean(x) ==> 2.5 #如果不指定第二个参数,那么就在所有的元素中取平均值
tf.reduce_mean(x, 0) ==> [2.,  3.] #指定第二个参数为0,则第一维的元素取平均值,即每一列求平均值

tf.reduce_mean(x, 1) ==> [1.5,  3.5] #指定第二个参数为1,则第二维的元素取平均值,即每一行求平均值

class tf.train.GradientDescentOptimizer

使用梯度下降算法的Optimizer,还有其它的算法,如:class tf.train.AdadeltaOptimizer使用Adadelta算法的Optimizer,class tf.train.AdagradOptimizer使用Adagrad算法的Optimizer,class tf.train.MomentumOptimizer使用Momentum算法的Optimizer,class tf.train.AdamOptimizer使用Adam 算法的Optimizer,class tf.train.FtrlOptimizer使用FTRL 算法的Optimizer,class tf.train.RMSPropOptimizer使用RMSProp算法的Optimizer。

 _init__(learning_rate, use_locking=False,name=’GradientDescent’)
 作用:创建一个梯度下降优化器对象
 参数:
 learning_rate: A Tensor or a floating point value. 要使用的学习率
 use_locking: 要是True的话,就对于更新操作(update operations.)使用锁

 name: 名字,可选,默认是”GradientDescent”.

optimizer.minimize

然后,可以设置 一个用于记录全局训练步骤的单值。以及使用minimize()操作,该操作不仅可以优化更新训练的模型参数,也可以为全局步骤(global step)计数。与其他tensorflow操作类似,这些训练操作都需要在tf.session会话中进行

tf.random_uniform

tf.random_uniform((4, 4), minval=low,maxval=high,dtype=tf.float32)))返回4*4的矩阵,产生于low和high之间,产生的值是均匀分布的。例:

import tensorflow as tf
import numpy as np
with tf.Session() as sess:
    print(sess.run(tf.random_uniform(
        (4, 4), minval=-0.5,
        maxval=0.5,dtype=tf.float32)))

输出:[[ 0.23706067  0.42579055  0.16444612  0.12134457]
 [ 0.14245582  0.32224071 -0.3107301   0.29911542]
 [-0.03472292 -0.37411058 -0.22680879  0.21656895]
 [-0.37798405  0.31725729 -0.17690742 -0.02995324]]

tf.zeros

创建一个所有的参数为0的tensor对象, tf.zeros(shape, dtype=tf.float32, name=None)
参数:
    shape: 用于表示维度,通常为一个int32类型数组,或者一个一维(1-D)的tf.int32数字.注意不能直接使用数字
    dtype: 所要创建的tensor对象的数据类型
    name: 一个该操作的别名(可选的).
data = tf.zeros([8], dtype=tf.float16)
p.printValue("sess.zeros([1], dtype=tf.float16)", data)
输出:
# sess.zeros([1], dtype=tf.float16) : Tensor("zeros_3:0", shape=(8,), dtype=float16) -
[ 0.  0.  0.  0.  0.  0.  0.  0.]

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值