对于一个监督学习模型来说,过小的特征集合使得模型过于简单,过大的特征集合使得模型过于复杂。
对于特征集过小的情况,称之为欠拟合(underfitting);
对于特征集过大的情况,称之为过拟合(overfitting)
解决此类学习问题的方法:
1) 特征选择算法:一类自动化算法,在这类回归问题中选择用到的特征
2) 非参数学习算法:缓解对于选取特征的需求,引出局部加权回归
与上一节的差别在于:图片来源于:Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable
1、局部加权回归(大样本不适用)
对所需要预测的x附近进行预测,因此每次都要做一次拟合。
在线性回归的基础上加上权重,以下的权重函数并不是唯一的
假设权重符合分布规律:
就有了新的目标函数