Ng机器学习笔记——单变量线性回归

本文介绍了单变量线性回归模型在房价预测中的应用,详细阐述了模型表达式、代价函数以及梯度下降算法。通过批量梯度下降求解最小化代价函数,讨论了学习率的影响。同时,提及正规方程作为另一种求解方法,并对比了两者在大数据量情况下的适用性。最后,回顾了线性代数中的矩阵乘法和转置概念。
摘要由CSDN通过智能技术生成

单变量线性回归(Linear Regression with One Value)

模型表示

  • 以房屋价格预测为例,该回归问题中的相关标记如下
    • 在这里插入图片描述

    • 在这里插入图片描述
      常用该表达式,因为只含一个特征/输入变量,被称为单变量线性回归问题。

    • 后期简写为h(x)

代价函数

  • 针对上方的表达式,需要选择适合的参数(parameters),模型所预测的值与训练集中实际值之间的差距被称作建模误差(modeling error)
  • 我们的目标是选择出可以使得建模误差的平方和能够最小的模型参数,使得代价函数在这里插入图片描述
    最小
  • 代价函数
    • 也称作平方误差函数,也被称作平方误差代价函数。
    • 特别是对于回归问题而言是一个合理的选择。

梯度下降

  • 一个用来求函数最小值的算法

  • 随机选择参数的组合然后计算代价函数,寻找下一个让代价函数下降最多的参数组合直到找到一个局部最小值(local minimum),不能保证是全局最小值(global minimum)

  • 批量梯度下降(batch gradient descent)算法公式如下

    • 在这里插入图片描述

    • 其中a是学习率(learning rate),决定了沿着代价函数下降程度最大的方向向下迈出的步子有多大。

    • 梯度下降中如果a太小,会很慢才能达到最低点,如果a太大,可能会越过最低点无法收敛,甚至发散。

    • 之所以不用改变a也可以收敛,是因为学习率所乘的导数所代表的斜率也会越来越小,每次更新都会越来越小,自然移动的幅度也会越来越小

梯度下降的线性回归

  • 通过比较梯度下降与线性回归算法

    • 在这里插入图片描述

    • 该阶段的梯度下降算法为批量梯度下降算法。

    • 使用正规方程(normal equations)也可以不用梯度下降求出代价函数J的最小值。实际上在数据量较大的情况下,梯度下降算法比正规方程更适用。

线性代数回顾(Linear Algebra Review)

  • 矩阵乘法性质

    • 在这里插入图片描述
  • 矩阵转置

    • 在这里插入图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值