机器学习(3): 线性回归中 梯度下降法 和 最小二乘法的区别

在机器学习中,常看到线性回归有 最小二乘法 梯度下降法

线性回归——最小二乘法 参见之前的博客:线性回归——最小二乘法小结

线性回归——梯度下降法 参见之前的两个博客:

1) 机器学习简介,单变量线性回归——梯度下降法 

2) 多变量线性回归——梯度下降法 

那么梯度下降法 和 最小二乘法的区别呢,其实二者主要在求解找到最优解时存在一些区别。

 

二者区别:

1 最小二乘法

1) 一次计算即可得到最优解(全局最优解),但极小值为全局最小值;

2) 当特征数量 n 大于10000时,因计算矩阵逆的时间复杂度( {\rm{O}}({n^3}) )会很大;

3) 只适用于线性模型,不适用于逻辑回归等其他模型。

 

2 梯度下降法

1) 需要选择学习率 \alpha,需要多次迭代找到最优解(局部最优解),极小值为局部最小值;

2) 当特征数量 n 大于10000时,也可以进行计算;

3) 适用于各种类型的模型。

总的来说,在机器学习中,最小二乘法只适用于线性模型(这里一般指线性回归);而梯度下降适用性极强,一般而言,只要是凸函数,都可以通过梯度下降法得到全局最优值(对于非凸函数,能够得到局部最优解)。梯度下降法只要保证目标函数存在一阶连续偏导,就可以使用。

 

 


参考资料

[1] https://blog.csdn.net/zaishuiyifangxym/article/details/82024155

[2] https://blog.csdn.net/zaishuiyifangxym/article/details/81976716

[3]  https://blog.csdn.net/zaishuiyifangxym/article/details/82024155

[4] https://blog.csdn.net/sinat_27652257/article/details/80657397

[5] https://www.cnblogs.com/wangkundentisy/p/7505487.html 

[6] 机器学习(西瓜书). 公式推导解析

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

TechArtisan6

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值