Andrew Ng机器学习笔记(二):多变量线性回归

对于一个监督学习模型来说,过小的特征集合使得模型过于简单,过大的特征集合使得模型过于复杂

对于特征集过小的情况,称之为欠拟合(underfitting)

对于特征集过大的情况,称之为过拟合(overfitting)

 

解决此类学习问题的方法:

1)       特征选择算法:一类自动化算法,在这类回归问题中选择用到的特征

2)       非参数学习算法:缓解对于选取特征的需求,引出局部加权回归

与上一节的差别在于:图片来源于:Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable


1、局部加权回归(大样本不适用)

对所需要预测的x附近进行预测,因此每次都要做一次拟合。

在线性回归的基础上加上权重,以下的权重函数并不是唯一的

假设权重符合分布规律:

就有了新的目标函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值