机器学习(五)线性回归之梯度下降法 VS 标准方程法

线性回归之梯度下降法 VS 标准方程法

引言:
假设代价函数J(θ)=aθ2+bθ+c (θ∈R)
那么使得代价函数最小,可以通过求解J(θ)的导数,并令其为0,来求的θ的值,即:
在这里插入图片描述
通过这种方法就可以不使用梯度下降而求得假设函数的参数θ

一、标准方程法求解假设函数参数θ
对于一个有n个特征要素,m个训练样本数据的问题,使用标准方程法如下:
m个样本数据:(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))
其中x(i) = [x0(i);x1(i);…;xn(i);] ∈Rn+1;(xi为n+1维列向量),其中x0(i) = 1
令X = [(x(1))T;(x(2))T;…;(x(m))T] (X为m行n+!列矩阵)
θ = (XTX)-1XTy; (θ为n+1维列向量)

举例
例如预测房价与房子大小以及卧室个数、楼层个数、房龄之间关系的训练样本,如下表

x0size(x1)bed room num(x2)floors num (x3)age of home (x4)==price(y) ==
121045145460
114163240232
115343230315
18342130178

在这里插入图片描述
在这里插入图片描述
θ = (XTX)-1XTy; (θ为n+1维列向量)

二、梯度下降法 VS 标准方程法

优缺点梯度下降法标准方程法
.需要选择学习速率α不需要选择学习速率α
.需要多次迭代不需要多次迭代
.即使n很大,也能很好的工作当n很大,因为需要计算(XTX)-1,会计算的非常慢

总结:
当n比较大的时候(通常n>10000),选择梯度下降法
当n不是很大(通常n<10000),选择标准方程法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Mekeater

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值