Tensorflow的应用(一)

       Tensorflow的安装就不介绍了,我在ubuntu安装的,还是蛮容易的,windows可能会复杂一些。网上有比较多的安装教程,这里就不介绍了。关于tf的使用主要是通过代码解释每一个知识点。

      在进行正式编辑tf代码前,先了解tf的几个概念。

     (1)使用图(graphs)来表示计算任务在被称之为会话(Session)的上下文(context)中执行图
        (2)使用tensor表示数据通过变量(Variable)维护状态
      (3)使用feed和fetch可以为任意的操作赋值或者从其中获取数据
        Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或多个Tensor,执行计算产生0个或多个Tensor。Tensor看作是一个n维的数组或列表。图必须在会话(Session)里被启动。
        下面正式进入代码:
1、创建图和使用图
import tensorflow as tf
m1=tf.constant([[3,3]])#创建一个常量op
m2=tf.constant([[2],[3]])#创建一个常量op
product=tf.matmul(m1,m2)#创建一个矩阵乘法op,把m1和m2传入
sess=tf.Session()#定义一个会话,启用默认图
result=sess.run(product)#调用Session的run的方法执行矩阵op,run(product)触发了图的三个op
print result
sess.close()
2、变量的使用
import tensorflow as tf
x=tf.Variable([1,2])
y=tf.constant([3,3])
sub=tf.subtract(x,y)#一个减法op
add=tf.add(x,sub)#一个加法op
init=tf.global_variables_initializer()#初始化变量为全局变量
with tf.Session() as sess:
    sess.run(init)#先执行初始化
    print sess.run(sub)
    print sess.run(add)
#以下进行一个累加求和
state=tf.Variable(0,name='count')#初始化变量为0
new_values=tf.add(state,1)#定义一个加法op,每次state变量加1
update=tf.assign(state,new_values)#赋值op,将每次累加的结果new_values赋值给state
init=tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)#先执行初始化
    print sess.run(state)
    for _ in range(5):
        sess.run(update)
        print(sess.run(state))
3、Fetch 和Feed
import tensorflow as tf
#Fetch
input1=tf.constant(2.0)
input2=tf.constant(3.0)
input3=tf.constant(5.0)
add=tf.add(input2,input3)
mul=tf.multiply(input1,add)
with tf.Session() as sess:
    result=sess.run([add,mul])#Fetch的意思是在一个会话里面执行两个op
    print result
#Feed
#创建占位符
input1=tf.placeholder(tf.float32)
input2=tf.placeholder(tf.float32)
output=tf.multiply(input1,input2)
with tf.Session() as sess:
    #feed数据以字典的形式传入
    print sess.run(output,feed_dict={input1:[2],input2:[3]})#fedd_dict的固定参数关键字,不能改
4、  tensorflow的简单示例:拟合一个线性回归
import tensorflow as tf
import numpy as np
x_data=np.random.rand(100)
y_data=x_data*0.1+0.2
#构造一个线性模型
b=tf.Variable(0.)
k=tf.Variable(0.)
y=k*x_data+b
#定义一个二次代价函数
loss=tf.reduce_mean(tf.square(y_data-y))
#定义一个梯度下降法来进行训练的优化器
optimizer=tf.train.GradientDescentOptimizer(0.2)#0.2为学习率
#定义一个训练
train=optimizer.minimize(loss)
#初始化变量
init=tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    for step in range(201):
        sess.run(train)
        if step%20==0:
            print sess.run([k,b])




  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值