《统计学习方法》-李航、《机器学习-西瓜书》-周志华总结+Python代码连载(二)--线性模型(Linear model)

本文深入探讨了线性模型,包括线性回归的最小二乘法和梯度下降求解过程。接着介绍了对数线性回归,它是线性模型的非线性映射。然后详细阐述了二元和多元逻辑回归,通过极大似然函数和梯度下降求解权重。最后,讨论了线性判别分析(LDA),其目标是最大化类间距离和最小化类内距离。文章附带相关Python代码实现。
摘要由CSDN通过智能技术生成

一、线性回归(Linear regression)

线性回归试图学得一个线性模型以尽可能准确地预测实值输出标记,用公式表达为:f(x_{i})=w\cdot x_{i}+b,使得f(x_{i}) \rightarrow y_i{}。那么怎么求得w,b呢?基本使用最小二乘法和梯度下降。

  • 最小二乘法:最小化均方差函数(本连载一中有相关解释)。
  • 梯度下降:是一种迭代算法。选取适当的初值,不断迭代,更新参数值,进行目标函数的极小化,直到收敛。由于负梯度方向是使函数值下降最快的方向,在迭代的每一步,以负梯度方向更新参数的值。

梯度下降算法:

输入:目标函数f(x),梯度函数g(x) = \triangledown f(x),计算精度\varepsilon

输出:f(x)的极小点x^{*}

  1. 去初始值x^{0}\in R^{n},置k=0.
  2. 计算f(x^{k}).
  3. 计算梯度g_{k} = g(x^{k}),当\left \| g_{k} \right \|< \varepsilon时,停止迭代,令x^{*}=x^{k};否则,令p_{k} = -g(x^{k}),求\lambda _{k},使f(x^{k}+\lambda _{k}\cdot p_{k}) = min(f(x^{k}+\lambda\cdot p_{k})),\lambda\geq 0.
  4. x^{k+1} = x^{k}+\lambda _{k}\cdot p_{k},计算f(x^{k+1}),当\left \| f(x^{k+1}-f(x^{k})) \right \|< \varepsilon\left \| x^{k+1}-x^{k} \right \|< \varepsilon,停止迭代,令x^{*} = x^{k+1}
  5. 否则 k = k+1 转3.
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值