机器学习笔记(二)回归

回归的概念起源于高尔顿和皮尔逊在研究遗传特性时的研究,现指用自变量预测连续值的数学方法。在机器学习中,回归是监督学习的一种,包括一元线性回归和多元线性回归,通过最小化误差来拟合数据。当面临非线性问题时,可以采用多项式回归,但需注意维度灾难和过拟合,常用正则化等手段进行缓解。
摘要由CSDN通过智能技术生成

机器学习笔记(二)回归

回归这个概念最早是由英国生物统计学家高尔顿和它的学生皮尔逊在研究父母亲和子女的身高遗传特性时提出的。

“子女的身高趋向于高于父母的身高的平均值,但一般不会超过父母的身高。”–《遗传的身高向平均数方向的回归》
Y=0.8567+0.516*X(单位为米)

回归如今指的用一个或多个自变量来预测因变量的数学方法,在机器学习中,回归指的是一类预测变量为连续值的有监督学习方法,在回归模型中,需要预测的变量叫做因变量,用来解释因变量变化的变量叫做自变量。
线性回归需要一个线性模型,属于监督学习,因此方法和监督学习应该是一样的,先给定一个训练集,根据这个训练集学习出一个线性函数,然后测试这个函数是否足够拟合训练集数据。

一元线性回归
一元指的是一个自变量,模型为y=wx+w在数学中这个式子称作一元线性方程,w是斜率,w是截距,而在回归中w,w称为回归系数。给定训练集D={(x,y),…,(x,y)},我们的目标是找到一条直线,使的所有样本尽可能落在它的附近,预测的值与真实值的差称为误差。
优化目标:让误差尽可能的小
image.png
求解就是对该式求导并令导数等于零,得到ww值。


多元线性回归
即多个自变量,训练集D={(x,y&#x

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值