机器学习——单变量线性回归、梯度下降

一、机器学习的分类

  • 监督学习:学习数据带有标签
  • 无监督学习:没有任何的标签,或者有相同的标签
  • 其他:强化学习、推荐系统等

二、线型回归Linear regression(单变量线性回归)

还是房价预测的例子, 训练集如下:
在这里插入图片描述
定义各个变量的含义如下:

  • m——代表训练集中实例的数量
  • x——代表特征/输入变量
  • y——代表目标变量/输出变量
  • (x,y)——代表训练集中的实例
  • (x(i),y(i))——代表第 i 个观察实例:其中x(i) 代表第i个输入变量, y(i)代表第i个目标变量
  • h——代表学习算法的解决方案或函数,也称为假设(hypothesis)

h 根据输入的 x 值来得出 y 值, y 值对应房子的价。因此, h 是一个从x 到 y 的函数映射,h 的一种可能的表达方式如下。因为只含有一个特征/输入变量,这样的问题叫作单变量线性回归问题
在这里插入图片描述

三、代价函数

线性回归算法优化的目标是:选取最有可能与数据相拟合的直线
数据与直线的误差,称为建模误差 modeling error
为了使建模误差最小,我们需要调整参数θ0 和 θ1,使得代价函数Cost function:J(θ0, θ1) 的值最小。

在各种代价函数中,最常用的是平方误差代价函数 Squared error cost function

3.1 建模误差

因为 h 是一次方程,它对应两个模型参数(parameters) θ0 和 θ1,选取不同的参数 θ0 和 θ1,产生的 h 不同,最终的直线也不同。
参数决定了直线相对于训练集的准确程度,模型所预测值 与 训练集实际值 之间的差距(下图中蓝线所指)就是 建模误差(modeling error)
在这里插入图片描述
  调整参数 θ0 和 θ1目标:使建模误差的平方和最小

3.2 平方误差代价函数 Squared error cost function

示例一:
在这里插入图片描述
  左边是假设函数(此例θ0=0,直线过原点),不同的θ1代表着不同的拟合情况。
  右边是代价函数,不同的θ1代表着不同的代价,对于平方误差代价函数,计算公式为:
在这里插入图片描述
  当 θ1 取1时,J(θ1) = 0 , 此时 J(θ1) 最小,处于曲线最低点,是我们想要的结果

示例二:
  当 θ0 和 θ1 都发生变化时,代价函数 J(θ0 , θ1) 在三维空间中图形如下:
在这里插入图片描述
  因为三维图像看起来太复杂, 将它投射到二维平面。引入等高线contour plot ,等高线上的点,对应的代价函数 J(θ0 , θ1) 取值相同
在这里插入图片描述
  上图取值位于三维图形的最低点,在二维图形上位于等高线的中心。对应的假设函数 h(x) 直线如左图。虽然拟合数据有一些误差(蓝色竖线),但是已经很接近最小值了。

3.3 梯度下降

梯度下降算法对 θ赋值, 使得 J(θ)按梯度下降最快方向进行, 一直迭代下去, 最终得到局部最小值,即收敛 convergence,如图:
在这里插入图片描述
在这里插入图片描述

梯度下降算法不只用于线性回归, 可以用来最小化任何代价函数 J。公式如下:
在这里插入图片描述
(1)梯度下降的更新规则
  取红点的切线,即这条红色直线。
  由于曲线右侧斜率为正,导数为正。 因此,θ1 减去一个正数乘以 α,值变小。
  曲线左侧斜率为负,导数为负。 因此,θ1 减去一个负数乘以 α,值变大。
在这里插入图片描述
(2)学习率 ɑ 的选择
  如果 α 太小,只能小碎步下降,需要很多步才能到达全局最低点,很慢。
  如果 α 太大,那么算法可能会越过最低点。一次次越过最低点,离它越来越远。会导致无法收敛, 甚至发散。
  在这里插入图片描述
(3)不调整学习速率 α 也能收敛
  梯度下降一步后, 新的导数会变小,移动的幅度会自动变小。直到最终移动幅度非常小时,已经收敛到局部极小值。
在这里插入图片描述

3.4 梯度下降与线性回归相结合

将平方误差函数 h(x), 结合梯度下降法, 以及平方代价函数J(Θ),得出第一个机器学习算法, 即线性回归Linear Regression对之前的线性回归问题运用梯度下降法,关键在于求出代价函数的导数
在这里插入图片描述
  j 分别取 0 和 1 时,其导数如下:
在这里插入图片描述
  将上面两个导数带入梯度下降算法中,替代原来的在这里插入图片描述 。梯度下降算法变为:
在这里插入图片描述
虽然梯度下降一般易受局部最小值影响 susceptible to local minima,但我们在线性回归中提出的优化问题只有一个全局最优解,而没有其他局部最优解,代价函数是凸二次函数。因此,梯度下降总是收敛到全局最小值(假设学习率α不是太大)

高等线性代数中有一种计算代价函数 J 最小值的数值解法,不需要梯度下降这种迭代算法,也能解出代价函数 J 的最小值,这是另一种称为正规方程 (normal equations) 的方法。实际上在数据量较大的情况下,梯度下降法比正规方程要更适用一些

笔记参考https://www.cnblogs.com/maxiaodoubao/p/9857874.html

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
线性回归机器学习中的一种基本算法,梯度下降法是线性回归中常用的优化算法。下面是线性回归梯度下降法的实现步骤: 1.读取数据集,包括自变量和因变量。 2.初始化相关参数,包括学习率、迭代次数、截距和斜率等。 3.定义计算代价函数,常用的代价函数是均方误差(MSE)。 4.梯度下降,通过不断迭代更新截距和斜率,使得代价函数最小化。 5.执行梯度下降算法,得到最优的截距和斜率。 下面是Python代码实现: ```python import numpy as np # 读取数据集 def load_data(file_path): data = np.loadtxt(file_path, delimiter=',') x_data = data[:, :-1] y_data = data[:, -1] return x_data, y_data # 初始化相关参数 def init_params(): b = 0 k = 0 learning_rate = 0.01 num_iterations = 1000 return b, k, learning_rate, num_iterations # 定义计算代价函数 def compute_cost(b, k, x_data, y_data): total_error = 0 for i in range(len(x_data)): total_error += (y_data[i] - (k * x_data[i] + b)) ** 2 cost = total_error / float(len(x_data)) return cost # 梯度下降 def gradient_descent(b, k, x_data, y_data, learning_rate, num_iterations): m = float(len(x_data)) for i in range(num_iterations): b_gradient = 0 k_gradient = 0 for j in range(len(x_data)): b_gradient += (1/m) * ((k * x_data[j] + b) - y_data[j]) k_gradient += (1/m) * ((k * x_data[j] + b) - y_data[j]) * x_data[j] b = b - (learning_rate * b_gradient) k = k - (learning_rate * k_gradient) return b, k # 执行梯度下降算法 def linear_regression(file_path): x_data, y_data = load_data(file_path) b, k, learning_rate, num_iterations = init_params() print("Starting parameters: b = {0}, k = {1}, cost = {2}".format(b, k, compute_cost(b, k, x_data, y_data))) b, k = gradient_descent(b, k, x_data, y_data, learning_rate, num_iterations) print("After {0} iterations: b = {1}, k = {2}, cost = {3}".format(num_iterations, b, k, compute_cost(b, k, x_data, y_data))) # 调用线性回归函数 linear_regression('data.csv') ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值