岭回归(ridge regression)

岭回归(ridge regression)

在处理回归问题时,常遇到的问题

  在处理复杂的数据的回归问题时,普通的线性回归会遇到一些问题,主要表现在:
  预测精度:这里要处理好这样一对为题,即样本的数量和特征的数量
  模型的解释能力:如果模型中的特征之间有相互关系,这样会增加模型的复杂程度,并且对整个模型的解释能力并没有提高,这时,我们就要进行特征选择。

岭回归的概念

  岭回归(Ridge Regression)是在平方误差的基础上增加正则项,
  通过确定的值可以使得在方差和偏差之间达到平衡:随着的增大,模型方差减小而偏差增大。可以认为是在回归分析中,用一种方法改进回归系数的最小二乘估计后所得的回归(方差指的是模型之间的差异,而偏差指的是模型预测值和数据之间的差异。我们需要找到方差和偏差的折中)。
在这里插入图片描述

在进行特征选择时,一般有三种方式

  1)子集选择
  2)收缩方式(Shrinkage method),又称为正则化(Regularization)。主要包括岭回归个lasso回归。
  3)维数缩减

请问岭回归问题是有全局最优解对吗?该方法为什么在人脸subject增加的时候保持了较好的准确率?

  回答:是的,岭回归问题是凸的,有全局最优解。该方法在人脸subject增加是能够保持较高的准确率,我们认为原因来自于在对二维数据学习时保存了数据的固有二维空间结构信息,使得该算法有优于对比算法的表现。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值