【浅谈系列】浅谈线性回归

一元线性回归

算法原理

最小二乘估计

基于均方误差最小化来进行模型求解的方法称为“最小二乘法”

E_(_w,_b_)= \sum_{i=1}^{m}(y_i-f(x_i))^2=\sum_{i=1}^{m}(y_i-(wx_i+b)))^2=\sum_{i=1}^{m}(y_i-wx_i-b)^2

极大似然估计

原理:已知模型(或样本)的当前结果,反推最有可能(即最大概率)导致这样结果的参数值;

用途:估计概率分布的参数值;

方法:对于离散型(或连续型)随机变量X,假设其概率质量函数为P(x;\theta )(或概率密度函数p(x;\theta )),其中\theta为待估计的参数值。现有x_1,x_2,x_3,\cdots,x_n是来自X的n个独立同分布的样本,他们的联合概率为:

L(\theta)=\prod_{i=1}^{n}P(x_i;\theta )

其中x_1,x_2,x_3,\cdots,x_n是已知量,\theta为未知量,因此以上概率是一个关于\theta的函数,称为L(\theta )为样本的似然函数。

极大似然函数的直观想法:使得观测样本出现概率最大的分布就是待求分布,也即使得联合概率(似然函数)L(\theta )取到最大值的\theta^*即为\theta的估计值。

 极大似然估计-线性回归

         对于线性回归来说,可假设其为以下模型:

y = wx+b+\epsilon

        其中\epsilon为不受控制的随机误差,通常假设其服从均值为0的正态分布\epsilon \sim N(0, \sigma ^2),所以\epsilon的概率密度函数为:

p(\epsilon )=\frac{1}{\sqrt{2\pi}\sigma}exp\left ( -\frac{\epsilon ^2}{2\sigma ^2} \right )

        若将\epsilony-(wx+b)等价替换可得:

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值