在python的sklearn.preprodessing库中有:
标准化(Standardization),归一化(normalization)这两种数据预处理方式,现在来一起学习一下它们。
Standardization又叫做mean removal and variance scaling。从名字上可以看出就是移出平均值,将方差化为1。注意:标注化是对feature进行操作的,也就是对列进行操作。对于同一列的所有feature我们对其进行Standardization就是对该列执行以下操作:
其中为某一列feature,
是mean(X),而
是X的均方差(也叫标准差 )std(X)。
from sklearn import preprocessing
import numpy as np
X_train = np.array([[ 1., -1., 2.],
[ 2., 0., 0.],
[ 0., 1., -1.]])
scaler = preprocessing.StandardScaler().fit(X_train)
print('mean:\n',scaler.mean_)
print('std:\n',scaler.scale_)
X_scaled = scaler.transform(X_train)
print('标准化后的X_train:\n',X_scaled)
归一化(normalization):Normalization is the process of scaling individual samples to have unit norm. 归一化是对simple进行操作的,即是对行操作,比如一个simple有n个feature,那么我们对这n个feature进行归一化,也就是让这n个feature标度到单位范数(让这n个feature的范数为1)如果你不理解范数的概念可以看这里。这个常在文本分类和聚类算法中使用,计算similarity的时候经常用到。
常用到的L1,L2公式:
标度到单位范数:比如我将n个feature标度到L1范数空间,也就是n个的feature的绝对值相加为1。
X = [[ 1., -1., 2.],
[ 2., 0., 0.],
[ 0., 1., -1.]]
X_normalized = preprocessing.normalize(X, norm='l2')
print(X_normalized)