简单线性回归、最小二乘法

线性回归算法

  • 解决回归问题
  • 思路简单,实现容易
  • 许多强大的非线性性模型的基础
  • 结果具有很好的可解释性
  • 蕴含机器学习中很多重要思想

寻找一条直线,最大程度的“拟合”样本特征和样本实处标记之间的关系
样本特征只有一个,成为简单线 性回归

简单线性回归

假设我们找到了最佳拟合的直线方程:y=ax+b

则对于每一个样本点 x ( i ) x^{(i)} x(i)根据我们的直线方程,预测为: y ^ ( i ) = a x ( i ) + b \hat{y}^{(i)}=ax^{(i)}+b y^(i)=ax(i)+b

真值为 y ( i ) y^{(i)} y(i)

我们希望 y ( i ) y^{(i)} y(i) y ^ ( i ) \hat{y}^{(i)} y^(i)的差距尽量小

表达 y ( i ) y^{(i)} y(i) y ^ ( i ) \hat{y}^{(i)} y^(i)的差距: y ( i ) − y ^ ( i ) y^{(i)}-\hat{y}^{(i)} y(i)y^(i)

因为差值可正可负,故采用绝对值表示差距比较方便: ∣ y ^ ( i ) = a x ( i ) + b ∣ \left | \hat{y}^{(i)}=ax^{(i)}+b \right | y^(i)=ax(i)+b

为了后续便于求导求极值,我们使用 ( y ( i ) − y ^ ( i ) ) 2 (y^{(i)}-\hat{y}^{(i)})^2 (y(i)y^(i))2来表示差距

考虑所有样本: ∑ i = 1 m ( y ( i ) − y ^ ( i ) ) 2 \sum_{i=1}^{m}(y^{(i)}-\hat{y}^{(i)})^{2} i=1m(y(i)y^(i))

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值