统计与机器学习发展的三条主线(二)

本文探讨了线性回归的重要性和背后的概率假设,解释了直线上的点代表给定x条件下y的均值。此外,介绍了从线性回归出发可以发展出的中位数回归、分位数回归、多项式回归、样条回归和核回归等方法,强调了线性回归中系数线性的关键作用。
摘要由CSDN通过智能技术生成

今天我们继续,昨天我们说要带领大家捋一捋统计与机器学习发展的几条主线,上一篇文章主要是从神经网络谈起,从最开始的感知器,发展到BP算法,再到后面的卷积神经网络以及最后的深度信度网络,这可以说是神经网络非常重要的一条发展主线,而且到现在也还在发展,从2012年起,又有许多新的神经网络提出来,在图像识别,自然语言处理,推荐算法方面都有很重要的应用。

那么我们今天沿着的主线又是什么呢,是回归,而且是线性回归。大家肯定会好奇了,回归类的方法那么多,为什么最简单的线性回归反而异常重要,难道它们之间有联系吗,答案是有,而且有着非常重要的联系,那么今晚就带领大家沿着这条路线走一下,就明白了。我们先说,什么是简单的线性回归,我们想象一下,有一堆散点在二维坐标里,我们需要找一条直线穿过它,并且呢,误差要最小,在这种条件下,我们得到的直线就是通过最小二乘法得到的直线。那么这件事从什么时候就做了好呢,从大数学家高斯的时候就做好了。但是呢,这个时候最小二乘得到的只是一条回归线。其他含义并没有太多。比如这个时候,我们得到回归线上的每一个点就是预测点。如果大家经常看书,会遇到另一个叫法,叫条件期望,再给定x的情况下的均值,这个是什么意思呢,为啥这样叫呢,背后有什么含义呢。实际上是这样的,我们通过最小二乘法得到那条直线之前,实际上是有个假设的,就是自变量x和因变量y一定是存在关系的,也就是它们本来理论上有关系,我们要通过回归把具体线性关系得出来。既然有关系,那么它们之间就存在联合概率密度f(x,y),所以说最小二乘

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值