数据归一化总结


数据归一化总结

1.目的:数据归一化的目的是为了把不同来源的数据统一到一个参考系下,这样比较起来才有意义。

2.由于各种各样的原因,标准的k-means算法并没有直接用于categorical数据。categorical数据的样本空间是离散的,并没有一个天然的可供欧氏距离使用的原点。因此欧氏距离函数对于这样一个空间并没有真正的意义。

I do not recommendconverting categorical attributes to numerical values. Imagine you have twocity names: NY and LA. If you apply NY number 3 and LA number 8, the distanceis 5, but that 5 has nothing to see with the difference among NY and LA.

这个是对cat data不能直接转化为num data的一个主要原因。

3.数据归一化方法大全 

在数据分析之前,我们通常需要先将数据标准化(normalization),利用标准化后的数据进行数据分析。数据标准化也就是统计数据的指数化。数据标准化处理主要包括数据同趋化处理和无量纲化处理两个方面。数据同趋化处理主要解决不同性质数据问题,对不同性质指标直接加总不能正确反映不同作用力的综合结果,须先考虑改变逆指标数据性质,使所有指标对测评方案的作用力同趋化,再加总才能得出正确结果。数据无量纲化处理主要解决数据的可比性。数据标准化的方法有很多种,常用的有“最小—最大标准化”、“Z-score标准化”和“按小数定标标准化”等。经过上述标准化处理,原始数据均转换为无量纲化指标测评值,即各指标值都处于同一个数量级别上,可以进行综合测评分析。

在数据分析之前,我们通常需要先将数据标准化(normalization),利用标准化后的数据进行数据分析。数据标准化也就是统计数据的指数化。数据标准化处理主要包括数据同趋化处理和无量纲化处理两个方面。数据同趋化处理主要解决不同性质数据问题,对不同性质指标直接加总不能正确反映不同作用力的综合结果,须先考虑改变逆指标数据性质,使所有指标对测评方案的作用力同趋化,再加总才能得出正确结果。数据无量纲化处理主要解决数据的可比性。数据标准化的方法有很多种,常用的有“最小—最大标准化”、“Z-score标准化”和“按小数定标标准化”等。经过上述标准化处理,原始数据均转换为无量纲化指标测评值,即各指标值都处于同一个数量级别上,可以进行综合测评分析。

 

常用的数据归一化方法如下:

一、标准化

    标准化方法是对原始数据进行线性变换。设minA和maxA分别为属性A的最小值和最大值,将A的一个原始值x通过标准化映射成在区间[0,1]中的值,其公式为:

 

    新数据=(原数据-极小值)/(极大值-极小值)

 

二、z-score标准化

 

 

    这种方法基于原始数据的均值(mean)和标准差(standard deviation)进行数据的标准化。将A的原始值x使用z-score标准化到x'。

 

    z-score标准化方法适用于属性A的最大值和最小值未知的情况,或有超出取值范围的离群数据的情况。

 

    新数据=(原数据-均值)/标准差

 

    spss默认的标准化方法就是z-score标准化。

 

    用Excel进行z-score标准化的方法:在Excel中没有现成的函数,需要自己分步计算,其实标准化的公式很简单。

步骤如下:

    1.求出各变量(指标)的算术平均值(数学期望)xi和标准差si ;

    2.进行标准化处理:

      zij=(xij-xi)/si

      其中:zij为标准化后的变量值;xij为实际变量值。

    3.将逆指标前的正负号对调。

    标准化后的变量值围绕0上下波动,大于0说明高于平均水平,小于0说明低于平均水平。

 

三、Decimalscaling小数定标标准化

 

    这种方法通过移动数据的小数点位置来进行标准化。小数点移动多少位取决于属性A的取值中的最大绝对值。将属性A的原始值x使用decimal scaling标准化到x'的计算方法是:

 

    x'=x/(10*j)

 

    其中,j是满足条件的最小整数。

 

    例如 假定A的值由-986到917,A的最大绝对值为986,为使用小数定标标准化,我们用1000(即,j=3)除以每个值,这样,-986被规范化为-0.986。

 

    注意,标准化会对原始数据做出改变,因此需要保存所使用的标准化方法的参数,以便对后续的数据进行统一的标准化。

 

    除了上面提到的数据标准化外还有对数Logistic模式、模糊量化模式等等:

 

    对数Logistic模式:新数据=1/(1+e^(-原数据))

 

 

    模糊量化模式:新数据=1/2+1/2sin[派3.1415/(极大值-极小值)*(X-(极大值-极小值)/2) ]       X为原数据

 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在PyTorch中,数据归一化是指将原始数据转换为具有特定均值和标准差的数据。通过归一化,我们可以使得数据的范围在一定的范围内,消除奇异样本数据导致的不良影响。这对于训练模型和优化算法来说非常重要。在PyTorch中,可以使用transforms.Normalize进行数据归一化。 具体来说,对于归一化,我们需要先计算出数据的均值和标准差,然后利用transforms.Normalize进行转换。我们可以通过计算整个数据集的均值和标准差来得到归一化的mean和std。这些计算得到的mean和std可以用来反归一化数据。 反归一化的过程就是使用计算得到的反归一化的mean和std,再次利用transforms.Normalize进行转换。这样就可以得到原始数据的值。 举个例子,假设我们有一个图像数据集,我们想要对其进行归一化。首先,我们计算整个数据集的均值和标准差。然后,我们可以使用transforms.Normalize(mean=channel_mean, std=channel_std)将数据集中的每个样本进行归一化处理。这样得到的数据可以在训练和优化过程中使用。 如果我们想要将归一化后的数据还原为原始数据,我们可以使用相同的mean和std值,再次利用transforms.Normalize进行转换。这样就可以得到反归一化后的数据总结起来,PyTorch中的数据归一化和反归一化是通过计算数据集的均值和标准差,并利用transforms.Normalize进行转换来实现的。这样可以限定数据的范围并消除奇异样本数据的影响。同时,反归一化可以将归一化后的数据还原为原始数据

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值