机器学习初级篇9——特征归一化

特征归一化是消除数据量纲影响,确保不同特征间可比性的关键步骤。归一化包括Min-Max Scaling和Z-Score Normalization,前者将数据映射到[0, 1]区间,后者使数据分布均值为0,标准差为1。归一化能加速梯度下降,提升模型如线性回归、逻辑回归和神经网络的精度。在涉及距离计算的算法如KNN或使用正则化的损失函数时,归一化是必需的。标准化和归一化应在训练集上进行,避免test集信息泄露。" 121512944,9142502,Linux服务器RAID配置与管理,"['Linux', 'CentOS', 'RAID配置', '存储管理', '服务器运维']
摘要由CSDN通过智能技术生成

为了消除数据特征之间的量纲影响,我们需要对特征进行归一化处理,使得不同指标之间具有可比性。 例如,分析一个人的身高和体重对健康的影响 , 如果使用米( m) 和干克( kg )作为单位 , 那么身高特征会在 1.6 ~ l.8m 的数值范围内 , 体重特征会在
50 ~ 100kg 的范围内,分析出来的结果显然会倾向于数值差别比较大的体重特征。 想要
得到更为准确的结果,就需要进行特征归一化( Normalization )处理,使各指标处于同
一数值量级,以便进行分析。

特征归一化

1.归一化与标准化的概念

归一化:就是将训练集中数值特征的值缩放到0到1之间。
标准化:就是将训练集中数值特征的值缩放成均值为0,方差为1的状态。

2.为什么需要对数值类型的特征做归一化?

对数值类型的特征做归一化可以将所有的特征都统一到一个大致相同的数值区间内 。 最常用的方法主要再以下两种。
( 1 )线性函数归一化( Min-Max Scaling )。它对原始数据进行统性变躁,使结果映射到[0, 1 ]的范围,实现对原始数据的等比缩放。
归一化公式如下:
在这里插入图片描述
其中 X为原始数据,Xmax、 Xmin 分别为数据最大值和最小值。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值