Tensorflow线性回归问题(y=2x+1)

1.准备数据

import numpy as np
import matplotlib.pyplot as pt
#np.linspace生成100个等差数列,取值0,1之间
x_data=np.linspace(0,1,100)
#np.random.randn(*x_data.shape)维度跟x_data一致
y_data=2*x_data +1.0+np.random.randn(*x_data.shape)*0.4
pt.scatter(x_data,y_data)
pt.plot(x_data,2*x_data+1.0,color='red',linewidth=3)

2.构建模型

(1)定义训练数据的占位符,x是特征值y是标签值

(2)定义模型函数

import tensorflow as tf

x=tf.placeholder('float',name='x')
y=tf.placeholder('float',name='y')

def model(x,w,b):
    return tf.multiply(x,w)+b

(3)定义模型结构

         tensorflow 变量的声明函数是tf.Variable

         tf.Variable的作用是保存和跟新参数

         变量是初始值可以是随机数,常数,或者其他变量的初始值

 

w=tf.Variable(1.0,name='w0')
b=tf.Variable(0.0,name='b0')

#pred是预测值,前向计算
pred=model(x,w,b)

3.训练模型

#训练次数
train_epochs=10
#学习率
learning_rate=0.05

(1)定义损失函数

         损失函数用于描述预测值跟真实值之间的误差,从而指导模型收敛方向

         常见损失函数:均方差(Mean Square Error,MSE)和交叉熵(cross-entropy)

         L2损失函数

         

#采用均方差作为损失函数
loss_function=tf.reduce_mean(tf.square(y-pred))

(2)定义优化器

         定义优化器Optimizer,初始化一个GradientDescentOptimizer 

         设置学习率与优化目标:最小化损失

#梯度下降优化器
optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss_function)

 (3)创建会话

 

#声明会话
sess=tf.Session()
#对所有变量初始化
init=tf.global_variables_initializer()
sess.run(init)

(4)迭代训练

for epoch in range(10):
    for xs,ys in zip(x_data,y_data):
        _,loss=sess.run([optimizer,loss_function],feed_dict={x:xs,y:ys})
        b0temp=b.eval(session=sess)
        w0temp=w.eval(session=sess)
        pt.plot(x_data,w0temp*x_data+b0temp)

 

4进行预测

print('w:',sess.run(w))
print("b:",sess.run(b))

 

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值