#机器学习--重新看待线性回归

引言

        本系列博客旨在为机器学习(深度学习)提供数学理论基础。因此内容更为精简,适合二次学习的读者快速学习或查阅。


普通视角的线性回归

        对于一组数据 { ( x 0 , y 0 ) , … ( x m , y m ) } \{(x_{0},y_{0}),\dots(x_{m},y_{m})\} {(x0,y0),(xm,ym)} 我们希望找到一个线性模型 y = w T x y=w^{T}x y=wTx 使得其在这组数据上拟合效果最好。既然要找最好,肯定就需要一个衡量指标。
        最直观的理解就是,当所有点到直线的距离之和最小时,误差最小,拟合效果最好。即,使用 M S E t r a i n MSE_{train} MSEtrain 作为模型的衡量指标。此时我们得到优化目标: arg min ⁡ w ∑ i m ( y i − w T x i ) 2 \argmin_{w}\sum_{i}^{m}(y_{i}-w^{T}x_{i})^{2} wargminim(yiwTxi)2

最大似然角度的线性回归

        假设对于每个 y i y_{i} yi 都由正态分布 N ( w T x i , σ ) N(w^{T}x_{i},\sigma) N(wTxi,σ) 产生,其中 σ \sigma σ 是用户固定的某个常量。之所以这么假设,是因为如果要找到一个正态分布 N ( μ , σ ) N(\mu,\sigma) N(μ,σ) 能够使得点 ( x , y ) (x,y) (x,y) 被采样的概率最大,那么这个正态分布就是 N ( x , σ ) N(x,\sigma) N(x,σ) 。也就是说,对于每个样本都是由正态分布采样所得,根据最大似然的思想,令所有的 y i y_{i} yi 同时发生的可能性最大,即: arg max ⁡ w ∑ i m l n [ 1 σ 2 π e − 1 2 ( y i − w T x i σ ) 2 ] \argmax_{w}\sum_{i}^{m}ln[\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2}(\frac{y_{i}-w^{T}x_{i}}{\sigma})^{2}}] wargmaximln[σ2π 1e21(σyiwTxi)2] = > arg max ⁡ w [ ∑ i m l n [ 1 σ 2 π ] − ∑ i m [ 1 2 σ 2 ( y i − w T x i ) 2 ] ] =>\argmax_{w}[\sum_{i}^{m}ln[\frac{1}{\sigma\sqrt{2\pi}}]-\sum_{i}^{m}[\frac{1}{2\sigma^{2}}(y_{i}-w^{T}x_{i})^{2}]] =>wargmax[imln[σ2π 1]im[2σ21(yiwTxi)2]] = > arg min ⁡ w ∑ i m ( y i − w T x i ) 2 =>\argmin_{w}\sum_{i}^{m}(y_{i}-w^{T}x_{i})^{2} =>wargminim(yiwTxi)2

总结

        从最终结果来看,两者之间的优化目标是一样的,但从本质上来讲,最小二乘法只是最大似然在正态分布下的一种特殊情况。如果假设其它分布则会有不同的结果,如:
        伯努利分布下,最大似然估计的结果就是逻辑回归。
        多项式分布下,最大似然估计的结果就是softmax回归。
        感兴趣的读者可以自行证明。

  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值