线性回归、预测回归、一般回归

平方误差代价函数

我们的目标就是让J()尽可能的小

平方误差代价函数 .png

梯度下降
  • := 是赋值的意思
  • α α 是指learning rate(学习速度)

梯度下降

对theta求导(斜率),theta在左半边的时候,斜率为负,所以theta会向右更新,同理在又边的时候会向左更新。可以得出当斜率为0的时候,theta不再更新。

偏导数.jpg

我们可以用梯度下降对多个参数(theta)进行求导,当多个参数均开始收敛(即前后两次迭代的值不再发生变化了。一般情况下,会设置一个具体的参数,当前后两次迭代差值小于该参数时候结束迭代)的时候,这即为一个比较合适的值。

最后得出的偏导公式.jpg

最小二乘法

将训练特征表示为X矩阵,结果表示成y向量,仍然是线性回归模型,误差函数不变。那么θ可以直接由下面公式得出

 此方法要求X是列满秩的,而且求矩阵的逆比较慢。 

最小二乘法

最小二乘法讲解:
https://www.cnblogs.com/iamccme/archive/2013/05/15/3080737.html

最大似然估计
http://www.cnblogs.com/liliu/archive/2010/11/22/1883702.html

带权重的线性回归
上面提到的线性回归的误差函数里系统都是1,没有权重。带权重的线性回归加入了权重信息。
  • 基本假设是
    !

  • 其中假设w(i)符合公式:
    image.png

其中x是要预测的特征,这样假设的道理是离x越近的样本权重越大,越远的影响越小。这个公式与高斯分布类似,但不一样,因为W(i)不是随机变量。
此方法成为非参数学习算法,因为误差函数随着预测值的不同而不同,这样θ无法事先确定,预测一次需要临时计算,感觉类似KNN。

分类和对数回归

一般来说,回归不用在分类问题上,因为回归是连续型模型,而且受噪声影响比较大。如果非要应用进入,可以使用对数回归。

对数回归本质上是线性回归,只是在特征到结果的映射中加入了一层函数映射,即先把特征线性求和,然后使用函数g(z)将最为假设函数来预测。g(z)可以将连续值映射到0和1上。

对数回归的假设函数如下,线性回归假设函数只是θ^T x

######sigmod函数/Logistic函数
sigmod函数

sigmod函数的轨迹

对数回归用来分类0/1问题,也就是预测结果属于0或者1的二值分类问题。这里假设了二值满足伯努利分布,也就是
image.png
当然假设它满足泊松分布、指数分布等等也可以,只是比较复杂,后面会提到线性回归的一般形式。
与第7节一样,仍然求的是最大似然估计,然后求导,得到迭代公式结果为

这个结果看上去与线性回归类似,只是θ^T x(i)换成了hθ (x(i)),但其实h就是θ^T x(i)经过g(z)映射过来的,而这也是它与最小二乘回归的最大区别
image.png

岭回归

简单来说,岭回归是在矩阵X^tX上加入一个∂ I 从而使矩阵奇异,进而能对X^tX+ ∂ I 求逆。其中矩阵I是一个m*m的单位矩阵,对角线元素为1,其余元素为0,而∂是一个用户定义的数值。在这种情况下,回归系数的计算公式变成:

回归系数公式
岭回归最先用于处理特征数多于样本数的情况,现在也用于在估计中加入偏差,从而得到更好的估计,这里通过引入∂来限制了所有w之和,通过引入惩罚项,能够减少不重要的参数,这个技术在统计学中也叫做缩减。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值