预处理

线性的无量纲化包括中心化(Zero-centered或者Meansubtraction)
处理和缩放处理(Scale)。中心化的本质是让所有记录减去一个固定值,即让数据样本数据平移到
某个位置。缩放的本质是通过除以一个固定值,将数据固定在某个范围之中,取对数也算是一种缩放处理

当数据(x)按照最小值中心化后,再按极差(最大值 - 最小值)缩放,数据移动了最小值个单位,并且会被收敛到
[0,1]之间,而这个过程,就叫做数据归一化(Normalization,又称Min-Max Scaling),归一化后数据服从正态分布

Normalization归一化

from sklearn.preprocessing import MinMaxScaler
data = [[1,2],[-0.5,6],[0,10],[1,18]]
import pandas as pd
pd.DataFrame(data)
01
01.02
1-0.56
20.010
31.018
scaler = MinMaxScaler()#实例化
scaler = scaler.fit(data)#fit,在这里本质是生成min(x)和max(x)
result = scaler.transform(data)#通过接口导出结果
result
array([[1.        , 0.        ],
       [0.        , 0.25      ],
       [0.33333333, 0.5       ],
       [1.        , 1.        ]])
result_ = scaler.fit_transform(data)#训练和导出结果一步达成
result_
array([[1.        , 0.        ],
       [0.        , 0.25      ],
       [0.33333333, 0.5       ],
       [1.        , 1.        ]])
scaler.inverse_transform(result)#将归一化后的结果逆转
array([[ 1. ,  2. ],
       [-0.5,  6. ],
       [ 0. , 10. ],
       [ 1. , 18. ]])
#使用MinMaxScaler的参数feature_range实现将数据归一化到[0,1]以外的范围中
data = [[-1, 2], [-0.5, 6], [0, 10], [1, 18]]
scaler = MinMaxScaler(feature_range=[5,10]) #依然实例化
result = scaler.fit_transform(data)#训练和导出结果一步达成
result
array([[ 5.  ,  5.  ],
       [ 6.25,  6.25],
       [ 7.5 ,  7.5 ],
       [10.  , 10.  ]])

使用numpy来实现归一化

import numpy as np
X = np.array([[-1, 2], [-0.5, 6], [0, 10], [1, 18]])
X_nor = (X-X.min(axis=0))/(X.max(axis=0)-X.min(axis=0))
X_nor
array([[0.  , 0.  ],
       [0.25, 0.25],
       [0.5 , 0.5 ],
       [1.  , 1.  ]])
#逆转归一化
X_returned = X_nor*(X.max(axis=0)-X.min(axis=0))+X.min(axis=0)
X_returned
array([[-1. ,  2. ],
       [-0.5,  6. ],
       [ 0. , 10. ],
       [ 1. , 18. ]])

Standardization标准化

数据(x)按均值(μ)中心化后,再按标准差(σ)缩放,数据就会服从为均值为0,方差为1的正态分布(即标准正态分
布),而这个过程,就叫做数据标准化(Standardization/Z-score normalization)

from sklearn.preprocessing import StandardScaler
data = [[-1,2],[0.5,6],[0,10],[1,18]]
scaler = StandardScaler()
scaler.fit(data)
StandardScaler(copy=True, with_mean=True, with_std=True)
scaler.mean_#查看均值的属性mean_
array([0.125, 9.   ])
scaler.var_#查看方差的属性var_
array([ 0.546875, 35.      ])
x_std = scaler.transform(data)#通过接口导出结果
x_std#数组
array([[-1.52127766, -1.18321596],
       [ 0.50709255, -0.50709255],
       [-0.16903085,  0.16903085],
       [ 1.18321596,  1.52127766]])
x_std.mean()
0.0
x_std.std()
1.0
scaler.fit_transform(data)#使用fit_transform(data)一步达成结果
array([[-1.52127766, -1.18321596],
       [ 0.50709255, -0.50709255],
       [-0.16903085,  0.16903085],
       [ 1.18321596,  1.52127766]])
scaler.inverse_transform(x_std)#使用inverse_transform逆转标准化
array([[-1. ,  2. ],
       [ 0.5,  6. ],
       [ 0. , 10. ],
       [ 1. , 18. ]])

大部分算法会选择标准化,Normalization归一化对异常值敏感,PCA,逻辑回归,支持向量机,神经网络这些算法中,StandardScaler往往最好的选择
MinMaxScaler在不涉及距离度量、梯度、协方差计算以及数据需要被压缩到特定区间时使用广泛,比如数字图像
处理中量化像素强度时,都会使用MinMaxScaler将数据压缩于[0,1]区间之中。
议先试试看StandardScaler,效果不好换MinMaxScaler

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值