特征处理

字典特征抽取

作用:对字典数据进行特征值化

sklearn.feature_extraction.DictVectorizer
DictVectorizer(sparse=True,)

DictVectorizer.fit_transform(X)       
#X:字典或者包含字典的迭代器
#返回值:返回sparse矩阵
DictVectorizer.inverse_transform(X)
#X:array数组或者sparse矩阵
#返回值:转换之前数据格式
DictVectorizer.get_feature_names()
#返回类别名称
DictVectorizer.transform(X)
#按照原先的标准转换

文本特征抽取

作用:对文本数据进行特征值化

sklearn.feature_extraction.text.CountVectorizer

CountVectorizer(max_df=1.0,min_df=1,)
#返回词频矩阵
CountVectorizer.fit_transform(X,y)       
#X:文本或者包含文本字符串的可迭代对象
#返回值:返回sparse矩阵
CountVectorizer.inverse_transform(X)
#X:array数组或者sparse矩阵
#返回值:转换之前数据格式
CountVectorizer.get_feature_names()
#返回值:单词列表

TF-IDF

TF-IDF的主要思想是:如果某个词或短语在一篇文章中出现的概率高,
并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分
能力,适合用来分类。

TF-IDF作用:用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。

sklearn.feature_extraction.text.TfidfVectorizer
TfidfVectorizer(stop_words=None,)
#返回词的权重矩阵
TfidfVectorizer.fit_transform(X,y)       
#X:文本或者包含文本字符串的可迭代对象
#返回值:返回sparse矩阵
TfidfVectorizer.inverse_transform(X)
#X:array数组或者sparse矩阵
#返回值:转换之前数据格式
TfidfVectorizer.get_feature_names()
#返回值:单词列表

归一化

特点:通过对原始数据进行变换把数据映射到(默认为[0,1])之间
在这里插入图片描述
注:作用于每一列,max为一列的最大值,min为一列的最小值,那么X’’
为最终结果,mx,mi分别为指定区间值默认mx为1,mi为0

sklearn.preprocessing.MinMaxScaler
MinMaxScalar(feature_range=(0,1))
#每个特征缩放到给定范围(默认[0,1])
MinMaxScalar.fit_transform(X)       
#X:numpy array格式的数据[n_samples,n_features]
#返回值:转换后的形状相同的array

注意在特定场景下最大值最小值是变化的,另外,最大值与最小值非常容易受异常点影响,所以这种方法鲁棒性较差,只适合传统精确小数据场景。

标准化

特点:通过对原始数据进行变换把数据变换到均值为0,方差为1范围内

在这里插入图片描述
注:作用于每一列,mean为平均值,𝜎为标准差(考量数据的稳定性)
在这里插入图片描述
对于归一化来说:如果出现异常点,影响了最大值和最小值,那么结果显然
会发生改变

对于标准化来说:如果出现异常点,由于具有一定数据量,少量的异常点对
于平均值的影响并不大,从而方差改变较小。

scikit-learn.preprocessing.StandardScaler
StandardScaler()
#处理之后每列来说所有数据都聚集在均值0附近方差为1
StandardScaler.fit_transform(X,y)       
#X:numpy array格式的数据[n_samples,n_features]
#返回值:转换后的形状相同的array

StandardScaler.mean_
#原始数据中每列特征的平均值

StandardScaler.std_
#原始数据每列特征的方差

在已有样本足够多的情况下比较稳定,适合现代嘈杂大数据场景。

缺失值插补

Imputer(missing_values='NaN', strategy='mean', axis=0)
#完成缺失值插补
Imputer.fit_transform(X,y)       
#X:numpy array格式的数据[n_samples,n_features]
#返回值:转换后的形状相同的array

PCA

本质:PCA是一种分析、简化数据集的技术
目的:是数据维数压缩,尽可能降低原数据的维数(复杂度),损失少量信息。
作用:可以削减回归分析或者聚类分析中特征的数量

PCA(n_components=None)
将数据分解为较低维数空间
PCA.fit_transform(X)       
X:numpy array格式的数据[n_samples,n_features]
返回值:转换后指定维度的array
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值