2.tensorflow 线性回归模型 matplot显示

#线性回归模型示例
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt

#随机生成1000个样本点,围绕在y=0.1x+0.3直线周围
num_points = 1000
vectors_set = []
for i in range(num_points):
    x1 = np.random.normal(0.0,0.55)
    y1 = x1 * 0.1 + 0.3 + np.random.normal(0.0,0.03)
    vectors_set.append([x1,y1])
#生成一些样本
x_data = [v[0] for v in vectors_set]
y_data = [v[1] for v in vectors_set]

plt.scatter(x_data,y_data,c='r')
plt.show()

#生成1维W矩阵,取值为[-1,1]之间的随机数
W = tf.Variable(tf.random_uniform([1],-1.0,1.0),name='W')
#生成1维的b矩阵,初始值为0
b = tf.Variable(tf.zeros([1]),name='b')
#计算得出预估值y
y = W * x_data + b

#以预估值y和实际值y_data之间的均方误差作为损失值
loss = tf.reduce_mean(tf.square(y - y_data),name = 'loss')
#采用梯度下降法优化参数(学习率为0.5)
optimizer = tf.train.GradientDescentOptimizer(0.5)
#训练的过程就是最小化这个误差值
train = optimizer.minimize(loss,name='train')
init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)
#打印初始化的W和b值
print("W=",sess.run(W),"b=",sess.run(b),"loss=",sess.run(loss))

#执行10次训练
for step in range(10):
    sess.run(train)
    print("W=",sess.run(W),"b=",sess.run(b),"loss=",sess.run(loss))
    #显示
    plt.scatter(x_data,y_data,c='r')
    plt.plot(x_data,sess.run(W)*x_data+sess.run(b))
    plt.xlabel('x')
    plt.xlim(-2,2)
    plt.ylabel('y')
    plt.ylim(0.1,0.6)
    plt.show()

首先会弹框显示样本:
这里写图片描述
后面会显示若干次拟合效果(训练10次):
这里写图片描述
迭代20次能取得更好的效果。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. 线性回归的原理和方法: 线性回归是一种用于建立变量之间线性关系的统计模型。它基于以下假设:自变量和因变量之间存在线性关系,并且误差项服从正态分布。线性回归模型可以表示为:Y = β0 + β1X1 + β2X2 + ... + βnXn + ε,其中Y是因变量,X1, X2, ..., Xn是自变量,β0, β1, β2, ..., βn是回归系数,ε是误差项。 线性回归的方法包括两个主要步骤:模型训练和模型评估。 - 模型训练:通过最小化残差平方和来估计回归系数。最常用的方法是最小二乘法,即找到使得残差平方和最小的回归系数。这可以通过求解正规方程或使用梯度下降等优化算法来实现。 - 模型评估:通过评估模型的性能来确定模型的准确性和可靠性。常用的评估指标包括均方误差(MSE)、决定系数(R-squared)等。 2. 线性回归模型的训练方法: 线性回归模型的训练方法主要有两种:最小二乘法和梯度下降法。 - 最小二乘法:最小二乘法是一种通过最小化残差平方和来估计回归系数的方法。它通过求解正规方程来得到回归系数的闭式解。正规方程是一个线性方程组,可以直接求解得到回归系数的值。 - 梯度下降法:梯度下降法是一种通过迭代优化算法来估计回归系数的方法。它通过计算损失函数关于回归系数的梯度,并沿着梯度的反方向更新回归系数,逐步减小损失函数的值。梯度下降法有两种变体:批量梯度下降和随机梯度下降。批量梯度下降在每次迭代中使用所有样本来更新回归系数,而随机梯度下降在每次迭代中只使用一个样本来更新回归系数。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值