正则化

本文介绍了正则化在解决线性回归和逻辑回归中的欠拟合和过拟合问题。通过正则化,可以减少特征权重,避免过拟合,同时保持对训练数据的良好拟合。介绍了正则化后成本函数的数学解释和通用方程,并提到了正则化的逻辑回归成本函数。最后,讨论了如何利用正则化的成本函数进行参数迭代优化。
摘要由CSDN通过智能技术生成

线性回归里的欠拟合和过拟合

  • 欠拟合 (underfitting)
    也叫做高偏差 (high bias) 。使用的特征过少导致成本函数过高。模型不能很好地拟合训练数据。
  • 过拟合 (overfitting)
    也叫高方差 (high variance) 。使用多个特征建模的预测函数非常完美地拟合了训练数据,其成本函数的值接近于零,但对新的数据预测时效果很差。

线性回归算法的欠拟合和过拟合

Linear Regression Overfit

针对房价预测模型,左边是欠拟合的情况,右边是过拟合的情况。中间表示模型比较好的拟合了训练数据集。

逻辑回归算法的欠拟合和过拟合

Logistic Regression Overfit

针对分类算法,左边是欠拟合,右边是过拟合,中间的模型比较好地拟合了训练数据集。

特征太多,而训练样本数据太少,则很可能出现过拟合。下面是一些解决过拟合问题的方法:

  • 减少特征个数
    • 手动减少特征个数
    • 模型选择算法,比如主成份分析法 (PCA) 。主要原理就是把特征的重要性拿来排序,然后只选择前面几个权重比较大的特征,忽略排在后面的权重比较小的特征。
  • 正则化
    • 保留所有的特征,减小特征的权重 θj 的值。确保所有的特征对预测值都有少量的贡献。
    • 当每个特征 xi 对预测值 y 都有少量的贡献时,这样的模型可以良好地工作

这就是正则化的目的,为了解决特征过多时的过拟合问题。

正则化

J(θ)=12mi=1m(hθ(x(i))y(i))2+λj=1nθ2j

其中 λ 的值有两个目的,即要维持对训练样本的拟合,又避免对训练样本的过拟合。如果 λ 太大,则能确保不出现过拟合,但可能会导致对现有训练样本出现欠拟合。

怎么样从数学上理解正则化后的逻辑回归算法的成本函数解决了过拟合问题呢?

从数学角度来看,成本函数增加了一个正则项 λnj=1θ2j 后,成本函数不再唯一地与预测值与真实值的差距决定,还和参数 θ 的大小有关。有了这个限制之后,要实现成本函数最小的目的, θ 就不能随便取值了,比如某个比较大的 θ 值可能会让预测值与真实值的差距 (hθ(x(i))y(i))2 值很小,但会导致

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值