小白的机器学习学习笔记(三)---多变量线性回归(1)

本文是小白机器学习学习笔记的第三部分,主要讲解多变量线性回归。内容包括假设函数的表达,模型参数,代价函数的定义,梯度下降公式以及特征缩放的重要性与方法,旨在帮助理解多变量线性回归的实现过程。
摘要由CSDN通过智能技术生成

第二章以单变量线性回归为例,介绍了线性回归的相关概念,这一章我们会从一个变量延申到多个变量。

1、假设函数:

单变量线性回归中变量为x,假设函数为h=kx+b;

在多变量线性回归中变量为x0,x1,x2,······xn,则假设函数为h=k0+k1x1+k2x2+k3x3+······+knxn,不妨令x0=1,则假设函数还可以写作:h=k0x0+k1x1+k2x2+······+knxn,设x=[x0,x1,x2······xn]',k=[k0,k1,k2······kn]'。则h=k'x。

2、模型参数:k0,k1,k2······kn

3、代价函数:

J(k0,k1,k2···kn)=1/(2*训练样本数)  *\sum(h(xi)-yi)^2   ,此处xi为向量,xi=[xi0,xi1,xi2···xin]’。

4、梯度下降公式:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值