线性回归问题:Tensorflow2实战


前言

最近准备入门图像识别领域,在了解图像识别的基本原理之后但是苦于一直不知道该如何开始自己的第一个项目, 在看了几种不同的网课之后,终于发现了《深度学习应用开发-TensorFlow实践》。这是大学mooc的一门课,讲解浅显易懂,并且很容易上手。
程序源码:https://github.com/hu669293657/Tensorflow/tree/main


环境

Win10
Python3.9
Tensorflow2.6.0
PyCharm Community Edition 2021.2


一、基本原理和概念

1.线性回归

线性回归是来自于统计学的一个方法。函数的定义说的是 独立参数 x 和 非独立参数 y之间的对应关系。例如本文使用的例子:y=2x+1。

2.回归分析

在统计学中,回归分析(regression analysis)指的是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。

3.机器学习系统

通过学习如何组合输入信息来对未见过的数据做出有用的预测。

4.监督式机器学习

是一个机器学习中的方法,可以由训练资料中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。本文就是利用监督式机器学习来解决线性回归预测的问题。

5.标签和特征

标签是我们要预测的真实事物:y线性回归中的y变量。
特征是指用于描述数据的输入变量:xi,线性回归中的{x1,x2,…,xn)变量

6.超参数

在机器学习中,超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。

7.梯度下降法

这个方法在网上有很多专业的解释,但是对于初学者可能要花比较长的时间理解,在这里我说一下我的理解,可能不是很准确但是应该会好理解一点。对于本题中的线性方程y=2x+1,其中x和y已经给定,当我们让机器来预测这个方程时,即预测y=wx+b中的w和b。如图:
在这里插入图片描述
y轴是损失,即我们预测的w与真实的w的误差;x轴为权重,即我们现在的w。我们令w为一个初始值,即起点,通过不断得调整那个小圆珠在黑线上的位置,直到那个小圆珠到达了最底下的位置,即那一点导数非常接近于0。我们就认为我们预测的w和真实的w差距最小。所以我们就要一点点来调整小圆珠,在这过程中速度既不能太快也不能太慢,太快的话小圆珠就会像个摆钟一样在最低点反复横跳,太慢的话时间也就太长了也不太好。

二、进入实战

1.准备数据

第一步就是准备数据,正所谓巧妇难为无米之炊。通过设置w=2.0,b=1.0,并加入一个噪声,噪声最大振幅为0.4,否则就是y=2x+1的那条直线了,代码如下(示例):

导入相关库

import matplotlib.pyplot as plt
import numpy as np
import tensorflow as tf

生成数据集,*x_data.shape为100

x_data = np.linspace(-1,1,100)
np.random.seed(5)  #设置随机数种子,来保证我们的随机数都是一样的
y_data = 2*x_data+1.0+np.random.randn(*x_data.shape)*0.4  #用*把x.shape设置为实参

利用matplotlib画出生成结果

plt.scatter(x_data,y_data)		#画出随机生成数据的散点图
plt.plot(x_data, 2*x_data+1.0,color='red',linewidth=3)  #画出我们想要学习到的线性函数 y=2x+1

在这里插入图片描述

2.构建模型

通过模型执行,将实现前向计算(预测计算),返回y,y=wx+b。

def model(x,w,b):
    return tf.multiply(x, w)+b

创建待优化变量w,b。设置初值,正是上文的小圆珠起点的位置。

#构建线性函数的斜率,变量w
w = tf.Variable(1.0)

#构建线性函数的截距,变量b
b = tf.Variable(0.0)

定义损失函数。

def loss(x,y,w,b):
    err = model(x, w, b) - y                  #计算模型预测值和标签值的差异
    squared_err = tf.square(err)            #求平方,得出方差
    return tf.reduce_mean(squared_err)      #求均值,得出均方差

'''
    采用均方差作为损失函数(第二种表达方式)
    pred = model(x,w,b)  pred是预测值,前向计算
    loss = tf.reduce_mean(tf.square(y-pred))
    以上就是y=1/n(y-y*)^2,当y越小时,即损失越小
'''

3.训练模型

设置训练超参数,其中学习率不能过大也不能过小。

train_epochs = 10       #迭代次数(训练轮数)
learning_rate = 0.01    #学习率

定义计算梯度函数。

#计算样本数据[x,y]在参数[w,b]点上的梯度
def grad(x,y,w,b):
    with tf.GradientTape() as tape:  #上下文管理器封装需要求导的计算步骤,
        loss_ = loss(x, y, w, b)
    return tape.gradient(loss_, [w, b]) #使用gradient()求导

执行训练。

step = 0            #记录训练步数
loss_list = []      #用于保存loss值的列表
display_step = 10   #控制训练过程中数据显示的频率,不是超参数

for epoch in range(train_epochs):
    for xs, ys in zip(x_data, y_data):
        loss_ = loss(xs, ys, w, b)     #计算损失
        loss_list.append(loss_)     #保存本次损失计算结果

        delta_w, delta_b = grad(xs, ys, w, b)   #计算当前[w,b]的梯度
        change_w = delta_w * learning_rate  #计算变量w需要调整的量
        change_b = delta_b * learning_rate  #计算变量b需要调整的量
        w.assign_sub(change_w)              #变量w更新后的量
        b.assign_sub(change_b)              #变量b更新后的量

        step = step + 1
        if step % display_step == 0:
            print("Trainging Epoch:{},Step:{},loss={}".format(epoch+1, step, loss_))
    plt.plot(x_data, w.numpy() * x_data + b.numpy())

迭代训练结果:
在这里插入图片描述
从上图可以看出,本案例所拟合的模型较简单,训练5轮之后已经接近收敛对于复杂模型,需要更多次训练才能收敛。
在这里插入图片描述

4.进行预测

利用这个模型,进行一下预测,看看效果怎么样:

def pre_number(x_test):
    predict = model(x_test, w.numpy(), b.numpy())
    print("预测值:{}".format(predict))

    target = 2 * x_test + 1.0
    print("目标值:{}".format(target))

pre_number(5.0)

通过上面我们训练的模型,发现预测还是比较准确的。
在这里插入图片描述


总结

通过一个简单的例子介绍了利用Tensorflow实现机器学习的思路,重点讲解了下述步骤:
(1)生成人工数据集及其可视化
(2)构建线性模型
(3)定义损失函数
(4)(梯度下降)优化过程
(5)训练结果的可视化
(6)利用学习到的模型进行预测

第一次学习机器学习,可能有些地方做得还不好,欢迎各位大佬指正!

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值