tensorflow1、2会话、变量、feed、fetch、最小二乘法

第一节课


tensorboard–可以查看训练效果
安装ananconda(略)

tensorflow简介

在这里插入图片描述

tensorflow结构

在这里插入图片描述
是个数据流动的趋势,
graph1:默认图
graph2:W*x+b->ReLU

2-1 基本计算-会话的使用

import tensorflow as tf
# 创建一个常量op,1*2
m1=tf.constant([[3,3]])
# 2*1
m2=tf.constant([[2],[3]])
# 矩阵乘法2*3+3*3=15
product=tf.matmul(m1,m2)
print(product)
# Tensor("MatMul:0", shape=(1, 1), dtype=int32)

因为没有放到图和会话中,所以没有值

# 定义会话,会有一个默认的图,可以直接用
sess=tf.Session()
# 调用sess的run来执行矩阵乘法op
# run(product)触发了图的三个op
result=sess.run(product)
print(result)
sess.close()
# [[15]]

另一种启动会话的方式

with tf.Session() as sess:
    result = sess.run(product)
    print(result)
    
    # [[15]]

2-2 变量

import tensorflow as tf

x=tf.Variable([1,2])
a=tf.constant([3,3])
# 增加一个减法op
sub=tf.subtract(x,a)
# 增加一个加法op
add=tf.add(x,sub)

# 给所有变量初始化
# 不初始化的话,会报错
init=tf.global_variables_initializer()


with tf.Session() as sess:
    sess.run(init)#运行才会初始化
    result1 = sess.run(sub)
    print(result1)
    result = sess.run(add)
    print(result)

赋值不能直接赋值,自加如下

# 自加,state=0
state=tf.Variable(0,name='counter')#可以起名字
#state+1
new_value=tf.add(state,1)
# 赋值op state=state+1
update=tf.assign(state,new_value)
# 变量初始化
init=tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)#运行才会初始化
    result1 = sess.run(state)
    print(result1)
    for _ in range(5):
        sess.run(update)
        print(sess.run(state))

2-3 fetch and feed

Fetch

import tensorflow as tf
# fetch
input1=tf.constant(3.0)
input2=tf.constant(2.0)
input3=tf.constant(5.0)

add=tf.add(input2,input3)
# input1*(input2+input3)
mul=tf.multiply(input1,add)

with tf.Session() as sess:
    result=sess.run([mul,add])#这个叫fetch?可以同时运行多个
    print(result)
	 # [21.0, 7.0]

feed

placeholder的变量是初始值待定的,feed以字典传入。

# feed
# 创建占位符
input1=tf.placeholder(tf.float32)
input2=tf.placeholder(tf.float32)
output=tf.multiply(input1,input2)
with tf.Session() as sess:
    # feed以字典形式传入
    print(sess.run(output,feed_dict={input1:[7.0],input2:[2.0]}))
    # [14.]

tensorflow的简单实用案例——最小二乘法

import tensorflow as tf
import numpy as np
# 使用numpy生成100个随机点
x_data=np.random.rand(100)
y_data=x_data*0.1+0.2

# 构造一个线性模型
b=tf.Variable(0.)
k=tf.Variable(0.)
y=k*x_data+b

# 定义一个二次代价函数
loss=tf.reduce_mean(tf.square(y_data-y))#(y_data-y)的平方然后求了个均值
# 定义一个梯度下降法来进行训练的优化器
optimizer=tf.train.GradientDescentOptimizer(0.2)#学习率=0.2
# 定义一个最小化代价函数
train=optimizer.minimize(loss)

init=tf.global_variables_initializer()

with tf.Session() as sess:
    sess.run(init)
    for step in range(201):
        print(sess.run([train,k,b,loss]))
        # [None, 0.049395364, 0.09887357, 0.061785623]
#         ……
# [None, 0.09999921, 0.20000039, 4.515499e-14]
# [None, 0.09999923, 0.20000039, 4.2725822e-14]
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值