机器学习笔记——(一)线性回归

线性回归

介绍

线性回归又称为最小二乘法回归Ordinary Least-Squares (OLS) Regression。简单来说就是一条线性函数来很好的拟合已知数据并预测未知数据。
在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。

一元线性回归

明确常用数学符号

  • 特征(feature): x i x_i xi,也称为观测变量, 比如,房屋的面积,卧室数量都算房的
  • 特征 特征向量(输入): x x x,一套房屋的信息就算一个特征向量,特征向量由特征组成, x j ( i ) x^{(i)}_j xj(i) 表示第 i 个特征向量的第 j 个特征。
  • 输出向量: y y y ,又称为预测变量, y ( i ) y^{(i)} y(i) 表示了第 i 个输入所对应的输出
  • 假设(hypothesis):也称为预测函数。比如一个线性预测函数是: h θ ( x ) = θ 0 + θ 1 x 1 + θ 2 x 2 + ⋯ + θ n x n = θ T x h_θ(x)=θ_0+θ_1x_1+θ_2x_2+⋯+θ_nx_n=θ^Tx hθ(x)=θ0+θ1x1+θ2x2++θnxn=θTx(θ为回归系数,与预测准确度息息相关)
  • 学习率(α):其标识了沿梯度方向行进的速率。不能过大,也不可太小。在实际编程中,学习率可以以 3 倍,10 倍这样进行取值尝试,如:α=0.001,0.003,0.01…0.3,1

误差评估
需要某个手段来评估我们的学习效果,即评估各个真实值 y ( i ) y^(i) y(i) 与预测值 hθ(x(i)) 之间的差异。最常见的,我们通过最小均方(Least Mean Square)来描述误差。
在这里插入图片描述

梯度下降

梯度下降算法在机器学习中是很普遍的算法,不仅可以用于线性回归问题,还可以应用到其他很多的机器学习的问题中。梯度下降算法是一种求局部最优解的方法。
在线性回归中,通常使用梯度下降(Gradient Descent)来调节 θ

  1. 批量梯度下降 (每次迭代用到所有样本)

  2. 随机梯度下降 (每次迭代只需要用一个样本)

  3. 小批量梯度下降(每次迭代用到部分b个样本)==应用

多元线性回归

定义
多元线性回归模型定义
未完待续····

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值