标准化,归一化,二值化,One-Hot,卡方检验选取重要特征,主成分分析,缺失值和异常值处理

本文详细介绍了数据预处理的多个步骤,包括特征的标准化、归一化、缩放、二值化和编码处理,以及如何处理缺失值和重复值。此外,还讲解了异常值的识别和处理方法。在特征选择方面,讨论了低方差特征的删除、SelectKBest方法以及主成分分析(PCA)和线性判别分析(LDA)的应用。这些技术对于提高模型性能和理解数据至关重要。
摘要由CSDN通过智能技术生成

1.特征处理

1.标准化处理
  • 导入包
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_iris
  • iris.data 为数组
iris = load_iris()
std = StandardScaler()
c = std.fit_transform(iris.data)
c

在这里插入图片描述

2.归一化
from sklearn.preprocessing import Normalizer
Normalizer().fit_transform(iris.data)

在这里插入图片描述

3.缩放法
from sklearn.preprocessing import MinMaxScaler
MinMaxScaler(feature_range=(1,2)).fit_transform(iris.data)

在这里插入图片描述

  • 归一化和标准化应用场景
  • 1.如果对输出结果范围有要求,则用归一化
  • 2.如果数据较为稳定,不存在极端的最大值或最小值,则用归一化
  • 3.如果数据存在异常值和较多噪声,则用标准化,这样可以通过中心化间接避免异常值和极端值的影响
  • 4.支持向量机(SVM)、K近邻(KNN)、主成分分析(PCA)等模型必须使用归一化或标准化
4.定量特征二值化
from sklearn.preprocessing import Binarizer
  • 阈值为3,所有大于3的数为1,所有小于等于3的数为0
Binarizer(threshold=3).fit_transform(iris.data)
5.定性特征编码(One-Hot)
  • 例:假如变量为工人、学生、农民,及工人为(0,0,1),学生为(0,1,0),农民为(1,0,0)即为One-Hot编码
pd.get_dummies(iris.target, sparse=True)
from sklearn.preprocessing import OneHotEncoder
c = OneHotEncoder(categories='auto').fit_transform(iris.target.reshape((-1,1)))
c
>> <150x3 sparse matrix of type '<class 'numpy.float64'>'
	with 150 stored elements in Compressed Sparse Row format>
c.toarray()

在这里插入图片描述

6.缺失值处理
  • strategy的参数
    mean 平均值
    median 中位数
    most_frequent 众数
from sklearn.impute import SimpleImputer
d = SimpleImputer(strategy='mean').fit_transform(c)
d
  • 2.pandas处理缺失值
  • 删除缺失值
  • how 为all 所有值为空才删除,默认any,有空值就删除
  • inplace 在原数据上删除
  • axis = 0 行 axis=1列
a.dropna(how='all',axis=0,inplace =True)
  • 填充缺失值
  • 使用前面的有效值向后填充,用ffill
  • 使用后面的有效值向前填充用bfill
  • axis =1,method=‘ffill’ 前一行的数据向后填充
a.fillna(method='ffill',axis=1)
  • 该列的平均值填充
a.fillna(np.mean(a.iloc[:,1]))
  • 数字2进行填充
a.fillna(2)
7.重复值处理
  • keep:接收特定 string,first 表示删除重复项并保留第一次出现的项;last 表示除了最后一项外,删除重复项;False 表示删除所有重复项;默认为 first;
  • subset:接收 string 或 sequence,仅考虑用于标识重复项的某些列,默认情况下使用所有列,默认值为 None,只选择该列有重复的
b = a.duplicated(keep='first',subset=['nihao'])
b

在这里插入图片描述

  • 删除nihao该列除第一行的所有重复行 默认为first
c = a.drop_duplicates(keep='first',subset=['nihao'])
c
8.异常值处理
  • 1.正态分布删除异常值
  • 数据要服从正态分布,使用3σ原则,异常值如超过3倍标准差,那么可以将其视为异常值,如果数据不服从正态分布,用远离平均值的多少倍标准差来描述。
from scipy import stats
mean = a['age'].mean()
std = a['age'].std()
  • pvalue>0.05 则为正态分布
print(stats.kstest(a['age'],'norm',(mean,std)))
>> KstestResult(statistic=0.19419645496061633, pvalue=0.058218287631895405)
  • 选取小于三个标准差的数据
data = a[np.abs(a['age']- mean) <= 3*std]
  • 2.箱线图删除异常值
    在这里插入图片描述
a['age'].plot(kind = 'box')

在这里插入图片描述

  • 四分位距(IQR)就是上四分位与下四分位的差值。而我们通过IQR的1.5倍为标准,规定:超过(上四分位+1.5倍IQR距离,或者下四分位-1.5倍IQR距离)的点为异常值
>> 求下四分位数
q1 = a["age"].quantile(0.25)
q1
>> 求上四分位数
q3 = a["age"].quantile(0.75)
q3
iqr = q3 - q1
>> 下界
bottom = q1 - 1.5*iqr
bottom
>> 上界
upper = q3 + 1.5*iqr
upper 
  • 删除超过上界和低于下届的所有数
a[(a['age'] >= bottom) & (a['age'] <= upper)]
9.数据转换
  • 所有值都转换为对数
np.log(a)
from sklearn.preprocessing import FunctionTransformer
a = np.arange(0,12).reshape(2,6)
a
>>array([[ 0,  1,  2,  3,  4,  5],
       [ 6,  7,  8,  9, 10, 11]])
m = FunctionTransformer(np.log).fit_transform(a)
m
>>array([[      -inf, 0.        , 0.69314718, 1.09861229, 1.38629436,
        1.60943791],
       [1.79175947, 1.94591015, 2.07944154, 2.19722458, 2.30258509,
        2.39789527]])

2.特征选择

1.删除低方差特征
from sklearn.feature_selection import VarianceThreshold
  • (threshold=0.2) 方差低于2的删除
b = VarianceThreshold(threshold=2).fit_transform(a)
b
  • 删除标准差为0的某一列
X = X.drop(X.columns[X.std()==0], axis=1)
2.SelectKBest()方法
  • f_classif,即利用ANOVA方法(方差分析(Analysis of Variance)又称F检验)来给特征打分,除此之外还有mutual_info_classif(基于互信息)、chi2(卡方检验)的方法来给特征打分后进行特征选择,这三种就可以用于常用的过滤法。
  • 还有f_regressionmutual_info_regression则可以用于回归问题。
  • 剩下的还有SelectPercentile (基于最高得分的百分位)等,可以根据以上举例选择需要的函数或者放入自己写的函数
from sklearn.feature_selection import SelectKBest,chi2,f_classif
  • 1.默认参数是相关系数法(f_classif)
SelectKBest(k=2).fit_transform(iris.data,iris.target)
  • 2.卡方检验
c = SelectKBest(chi2,k=2)
d = c.fit_transform(iris.data,iris.target)
d
  • 每一个特征的评分
c.scores_
>>array([ 10.81782088,   3.7107283 , 116.31261309,  67.0483602 ])
  • p-values 越小,置信度越高,特征越重要
c.pvalues_
>> array([4.47651499e-03, 1.56395980e-01, 5.53397228e-26, 2.75824965e-15])
  • argsort()将索引从小到大排序,以下是将得分索引从大到小排序
m = np.argsort(c.scores_)[::-1]
m
e = pd.DataFrame(iris.data)
e

在这里插入图片描述

  • 返回最重要的俩个特征索引名称
list(e.columns.values[m[0:2]])
>> 索引名称为  [2, 3]
  • 使用卡方检验查看最重要的2个特征完整代码
from sklearn.feature_selection import SelectKBest,chi2,f_classif
import pandas as pd
import numpy as np
from sklearn.datasets import load_iris
iris = load_iris()
c = SelectKBest(chi2,k=2)
d = c.fit_transform(iris.data,iris.target)
m = np.argsort(c.scores_)[::-1]
e = pd.DataFrame(iris.data)
list(e.columns.values[m[0:2]])
3.主成分分析法(PCA)
  • 主要原理是某种线性投影,将高维的数据映射到低维的空间表示,并期望在所投影的维度上的数据的方差最大,以此来达到使用较少的数据维度来保留较多的原数据点的效果
from sklearn.decomposition import PCA
  • 1.整数 减少到特征数量
    2.小数 0-1 90% 90%-95% 剩下百分之多少的数量:3个特征的95%就剩下2个特征
def pca():
    """
    主成分分析进行特征选择
    :return:
    """
    # 特征数量达到上百的时候   考虑数据简化  数据内容也会变   特征数量减少
    # 1.整数   减少到特征数量 整数是1,就减少到一个特征
    # 2.小数   0-1    90%   90%-95%
    pca = PCA(n_components=0.95)
    data = pca.fit_transform(iris.data)
    print(data)

在这里插入图片描述

4.线性判别分析法(LDA)
  • 是一种有监督的线性降维算法,使降维后的数据点更容易较区分,利用了标签的特性
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDA
LDA(n_components=2).fit_transform(iris.data,iris.target)
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

最低调的奢华

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值