线性回归算法原理及实现

导读

今天是该系列第四篇文章,介绍线归原理及实现。

    由该系列第一篇文章中的逻辑回归出发,来讲讲本文的方法(其实正常的顺序应该是先讲线归再讲逻辑回归hhh)。

    回归是是另一类重要的监督学习算法。与分类问题不同的是,在回归问题中,其目标是通过对训练样本的学习,得到从样本特征到样本标签之间的映射,其中,在该性质的问题中,样本标签是连续值。而本文即将介绍的线性回归中标签与特征之间存在线性相关的关系。

Linear Regression

     线归方程一般可表示为:

    线性回归模型的性能可通过度量预测值与标签之间的接近程度来得到,损失函数可以是绝对损失或者平方损失。其中平方损失函数为: 

    

    由于平方损失处处可导,在这里使用其作为损失函数,用一定数量的样本可将其表示为:

    求解目标就是使得损失函数取最小值的wj

最小二乘法---矩阵法

     可用最小二乘法里的矩阵法来进行求解,该方法不同于迭代法和代数法,但最终目标都是一致的,预测函数可表示为:

    Y对W求导可得:

    梯度为0时可整理得:

    现在可以让我们用代码实现求解了:

import numpy as np
def lr_least_square(feature, label):
    '''input: feature特征
            label标签
    output: w权重系数'''
    w = (feature.T * feature).I * feature.T * label
    return w

存在的问题

     可在处理较为复杂的数据的回归问题时,普通的线性回归算法通常会出现预测精度不够,再加上如果模型中的特征之间有相关的关系,就会增加模型的复杂程度,并且对整个模型的解释能力并没有提高,用普通最小二乘法估计模型参数,往往参数估计的方差太大,此时求解出来的模型就很不稳定。这就需要对数据中的特征进行选择,而Ridge回归和Lasso回归就是属于通过正则化方法改进的线归方法,可实现对特征的选择。

Ridge Regression

     引入L2正则项的目标函数为:

Lasso Regression

     引入L1正则项的目标函数为:

    与岭回归不同的是,上述的目标函数在wj=0处是不可导的,因此传统的基于梯度的方法不能直接应用在上述形式的函数求解上。为了求解这样的问题,一些近似的优化算法被采用,或者可以采用一些简单的方法来近似这样的优化过程。

求解Ridge Regression

     本文以Ridge Regression为例来进行求解,其中λ为超参,通过确定λ的值可以使得在方差和偏差之间达到平衡:随着λ的增大,模型方差减小而偏差增大。

    求解方法与求解普通的线归一致,也通过矩阵法求解,对W求导后得:

    令导数为0,可得:

    其中I为单位对角矩阵,求解代码如下:

import numpy as np
def rr_least_square(feature, label, lam):
    '''input: feature特征
            label标签
    output: w权重系数'''
    n = np.shape(feature)[1]
    w = (feature.T * feature + lam * np.mat(np.eye(n))).I * feature.T * label
    return w

     到这里整个流程基本就结束了~

- end -





  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值