机器学习之归一化

之前我们讨论了几个机器学习的模型,线性回归模型(Linear Regression)逻辑回归模型(Logistic Regression),这一次我们讨论一下关于模型数据拟合的问题以及归一化方法(Regularization)

过拟合问题(The Problem of Overfitting)

如果我们有非常非常多的特征,我们通过学习得到的假设可能会非常适应训练集(代价函数的值可能几乎为0),但是这样的假设能不能推广使用到新的数据呢?下面有一些例子:


从左至右来看,第一个模型是一个线性模型,拟合度很低,也称作低度拟合(Underfitting),不能很好地适应我们的训练集;第三个模型,是一个四次方的模型,属于过度拟合,虽然能够很好地适应我们的训练集数据,但是在新输入变量进行预测的时候,可能效果会很差;而第二个模型,似乎是最合适的模型。

分类问题(Classification)中,也存在这样的问题:


最后一个模型就是过度拟合的情况。

那么问题出现了,如果我们发现了这样过度拟合的情况,如何处理?

思考后,有两种方式:

1,丢弃一些不能帮助我们正确预测的特征。

  • 可能是手工选择保留哪些特征
  • 或者使用一些模型选择的算法来帮忙(例如 PCA)
2,归一化

  • 保留所有的特征,但是减少参数的大小(Magnitude)

归一化代价函数(Regularization Cost Function)

上面的回归问题中,如果我们使用的模型是:


我们决定要减小ø3和ø4的大小,我们需要做的就是修改代价函数,在其中ø3和ø4的身上,设置一些惩罚(Punishment)。这样做的话,我们在尝试最小化代价时,也需要将这个惩罚代入考虑中,并最终导致选择小一些的ø3和ø4 。 修改之后的代价函数如下:


这样,通过代价函数选择出的ø3和ø4对整个预测结果的影响就比之前小了很多。

加入我们有非常多的特征,我们并不知道其中哪些特征是我们要惩罚的,我们将对所有特征进行惩罚,并且让代价函数最优化的方法来选择惩罚的程度。这样的结果,就得到了一个较为简单的能够防止过度拟合问题的假设:


其中λ又称为归一化参数(Regularization Parameter)

这里注意:根据惯例,我们不会对ø0进行惩罚。

经过归一化处理的模型与原模型的对比可能如下图:


如果选择的归一化参数λ过大,就会把所有参数都最小化了,这样导致模型hø(x)=ø0也就是上图中的红色直线的情况,数据就属于低度拟合。

下回我们讨论,线性逻辑模型的归一化和逻辑回归模型的归一化。

机器学习中需要进行归一化的情况取决于具体的算法。一般来说,对于一些算法如SVM、逻辑回归、神经网络、KNN和线性回归等,需要进行归一化处理。这是因为在这些算法中,特征值的尺度差异很大时,可能会对模型的性能产生不良影响。归一化可以将特征值映射到一个统一的范围内,以确保不同特征之间的权重是平衡的,避免某些特征对模型的影响过大。此外,归一化还可以加速梯度下降的收敛过程,减少迭代次数,提高训练效率。然而,对于树形结构的算法,如决策树和随机森林等,并不需要进行归一化处理。这是因为这些算法不关心变量的具体值,而是关心变量之间的条件概率和分裂点的位置。对于树模型而言,样本点的数值缩放不会影响分裂点的位置,也不会对模型的结构造成影响。另外,树模型不需要进行梯度下降,因为树模型是阶跃的,而阶跃是不可导的,也不需要进行归一化处理。因此,在机器学习中,是否需要进行归一化处理要根据具体的算法和数据情况来决定。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [【深度学习/机器学习】为什么要归一化归一化方法详解](https://blog.csdn.net/qq_51392112/article/details/129091683)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] - *2* *3* [机器学习哪些算法需要归一化?](https://blog.csdn.net/weixin_43593330/article/details/105751132)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值