预测回归二:局部加权回归和惩罚线性回归

本文深入探讨了机器学习中的局部加权回归和惩罚线性回归,包括原理和Python实现。局部加权回归通过加权使模型更好地适应数据,而惩罚线性回归如岭回归、Lasso和ElasticNet则通过正则化避免过拟合。文章提供了代码示例,并在鲍鱼数据集上进行了应用。
摘要由CSDN通过智能技术生成

预测回归二:局部加权回归和惩罚线性回归

一般的线性回归(关于线性回归的详细内容,参见另一篇文章:机器学习之预测回归一:简单线性回归)过于简单,容易出现欠拟合与过拟合的问题。为了改进模型使其具有更好的预测效果,可以引入局部加权回归和惩罚线性回归的方法。本文介绍这两种方法的原理以及
Python 代码实现。

一、局部加权回归

原理

线性回归容易出现欠拟合的问题,引入局部加权线性回归可以降低预测的均方误差。

给待预测点附近的每个点赋予一定的权重,然后在这个子集上进行普通的回归。这种算法每次预测均需事先先选取出对应的数据子集。

回归系数的形式变为:

在这里插入图片描述

权重 W 是一个矩阵,常用的计算是使用高斯核:

在这里插入图片描述

超参数k的大小影响了模型的效果,选择合适的k是调参的过程。

python 代码实现

导入数据的函数:

def loadDataSet(filename, separator='\t'):
    dataSet = []
    labels = []
    with open(filename, 'r') as fr:
        for line in fr.readlines():
            lineArr = line.strip().split(separator)
            feat = []
            for i in range(len(lineArr) - 1):
                feat.append(float(lineArr[i]))
            dataSet.append(feat)
            labels.append(float(lineArr[-1]))
    return dataSet, labels

局部加权线性回归函数:


                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值