【吴恩达机器学习】线性回归

本文详细介绍了线性回归,包括单变量和多变量线性回归。阐述了监督学习算法的工作流程、代价函数、梯度下降法及其在线性回归中的应用。同时讨论了多变量线性回归中的特征缩放、学习率调整以及正规方程,强调了特征尺度对梯度下降算法收敛速度的影响。
摘要由CSDN通过智能技术生成

线性回归是通过一个或者多个自变量与因变量之间的关系进行建模。

特点为一个或多个回归系数的模型参数的线性组合

一元线性回归:涉及到的变量只有一个

多元线性回归:涉及到的变量两个或两个以上

一、单变量/一元线性回归:

1.1监督学习算法工作的流程

在这里插入图片描述

h(hypothesis):假设函数,是一个从𝑥到 𝑦 的函数映射。
如:在这里插入图片描述

其中θ是模型参数,x是输入变量/特征,y是输出/目标变量。

1.2代价函数/平方误差函数/平方误差代价函数

代价函数:在这里插入图片描述

其中:𝑚是训练样本的数量

参数决定了模型所预测的值与训练集中真实值之间的差(建模误差modeling error)

目标:选择出可以使建模误差的平方和最小的模型参数。

1.3梯度下降

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值