《机器学习》第1天-线性回归原理推导

目录

Q1:回归问题阐述:

Q2:  误差项定义:

Q3:  独立同分布的意义:

Q4:似然函数作用

Q5: 参数求解

Q6: 梯度下降法


Q1:回归问题阐述:

举例:若去银行贷款,需要提供的信息为个人年龄:x_1{}与个人月收入x_2,则银行给出可贷款的额度y。

        分析:特征:工资、年龄

                   标签:额度

                   参数:工资与年龄对额度的影响程度

        目的:找到一条线(或一个平面)更好的拟合数据集

        公式表达:y = \theta _1x_1+\theta_2x_2+\theta_0

               推广:y=\sum_{i=0}^{n}\theta_ix_i=\theta^{T}x


Q2:  误差项定义:

        误差项定义:y_i=\sum_{i=0}^{n}\theta_ix_i+\varepsilon _i=\theta^{T}X_i+\varepsilon_i        公式1


Q3:  独立同分布的意义:

  • 误差\varepsilon_i服从独立同分布的,且服从均值为0,方差为\theta ^2的高斯分布
  • 独立:张三与李四去贷款
  • 同分布:他们在同一家银行中贷款
  • 高斯分布:银行可能会给的多或者给的少,总体保持稳定。但绝大多数情况下,浮动不大,极少数情况浮动大,符合正常情况
  • 高斯分布公式:p = \frac{1}{\sqrt{2\pi }\sigma }exp(-\frac{(x-\mu )^2}{2\sigma_{}^{2}})     

误差\varepsilon_i服从高斯分布:p(\varepsilon_i)=\frac{1}{\sqrt{2\pi }\sigma^2}exp(-\frac{\varepsilon_i^2}{2\sigma^2})     公式二

因为最终目标是求\theta^T,所以将公式一带入公式二中:p(y_i|X_i;\theta^T)=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-X_i\theta^T)^2}{2\sigma^2})

Q4:似然函数作用

概率论:独立同分布 联合概率密度等于各自边缘分布的乘积

总结:已知结果,求参数的方法——似然函数

似然函数:L(\theta^T) = \prod_{i=1}^{m}p(y_i|X_i;\theta^T)=\prod_{i=1}^m\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-X_i\theta^T)^2}{2\sigma^2})

因为乘法难以求解,加法容易,故将引入——对数似然函数(极值虽然发生变化,但极值点不会变

对数似然函数:logL(\theta^T)=log\prod_{i=1}^{m}\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-\theta^TX_i)^2}{2\sigma^2})=mlog\frac{1}{\sqrt{2\pi}\sigma}-\frac{1}{2\sigma^2}\sum_{i=1}^{m}(y_i-\theta^TX_i)^2

因似然函数需求最大,故对数似然函数也应求最大。

即求代价函数最小(损失函数):J(\theta^T)=\frac{1}{2}\sum_{i=1}^{m}(y_i-X_i\theta^T)^2         (最小二乘法)

Q5: 参数求解

 

   当A为对称矩阵时,结果为2Ax

 

Q6: 梯度下降法

  • 按照梯度的反方向下坡
  • 最小二乘法这种直接求解的方法,用处太局限,故绝大多数使用优化算法;eg:梯度下降法

 

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值