Andrew Ng机器学习笔记(二):多变量线性回归

本文介绍了多变量线性回归中的局部加权回归,探讨了欠拟合与过拟合的概念,并解释了如何通过特征选择和非参数学习算法来解决这些问题。局部加权回归强调在预测时只对样本附近的点进行拟合,而概率解释部分揭示了最小二乘法背后的高斯分布假设。此外,还简要提到了logistic函数在二元分类中的应用。
摘要由CSDN通过智能技术生成

对于一个监督学习模型来说,过小的特征集合使得模型过于简单,过大的特征集合使得模型过于复杂

对于特征集过小的情况,称之为欠拟合(underfitting)

对于特征集过大的情况,称之为过拟合(overfitting)

 

解决此类学习问题的方法:

1)       特征选择算法:一类自动化算法,在这类回归问题中选择用到的特征

2)       非参数学习算法:缓解对于选取特征的需求,引出局部加权回归

与上一节的差别在于:图片来源于:Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable


1、局部加权回归(大样本不适用)

对所需要预测的x附近进行预测,因此每次都要做一次拟合。

在线性回归的基础上加上权重,以下的权重函数并不是唯一的

假设权重符合分布规律:

就有了新的目标函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值