单变量特征选择

import pandas as pd
from numpy import set_printoptions
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2

data=pd.read_excel(‘C:\Users\Administrator\Desktop\test.xlsx’)
X=data[[‘country’,‘region’,‘provstate’,‘city’,‘specificity’,‘vicinity’,‘targtype1’,‘weaptype1’]]
Y=data[‘gname’]

ts=SelectKBest(score_func=chi2,k=4)
fit=ts.fit(X,Y)
set_printoptions(precision=4)
print(fit.scores_)
features=fit.transform(X)
print(features) #单变量特征选择

j=[‘country’,‘region’,‘provstate’,‘city’,‘specificity’,‘vicinity’,‘targtype1’,‘weaptype1’,‘gname’]
for i in j:
X[i] = X[i].to_string()
X.info() #将数据转化为字符型

特征变量选择方法是在建立机器学习模型时,从原始数据中选择出与目标变量相关性高的特征变量,以提高模型的预测精度和泛化能力。其中,pdf是一种统计方法,用于评估特征变量的重要性和相关性。 特征变量选择方法中的pdf方法,全称为概率分布函数方法(Probability Density Function method)。它基于统计学原理,通过计算特征变量与目标变量之间的概率分布函数,来评估特征变量对目标变量的贡献程度。 具体而言,pdf方法通过以下步骤进行特征变量选择: 1. 首先,从原始数据中选择一组特征变量。 2. 然后,对每个特征变量以及目标变量,计算其概率分布函数。 3. 接下来,通过计算每个特征变量对应的概率密度函数与目标变量的概率密度函数之间的差异,评估特征变量的重要性和相关性。差异越大,特征变量对目标变量的贡献越大。 4. 最后,选择概率分布函数差异最大的特征变量作为最终的选择结果。 pdf方法的优点是能够准确评估特征变量与目标变量之间的关系,避免了特征变量选择中的主观性和不确定性。同时,该方法对于数据分布不均匀的情况也有较好的适应性。 然而,pdf方法也存在一些限制。首先,该方法要求数据是连续型变量且满足一定的概率分布假设,对于离散型变量和非常偏态的数据可能不适用。其次,该方法对于高维数据以及特征变量之间存在较强相关性的情况下,效果可能不理想。 总之,pdf方法是一种基于概率分布函数的特征变量选择方法,通过评估特征变量与目标变量之间的概率密度函数差异,来选择重要性最高的特征变量。它在机器学习模型构建中具有较好的应用价值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值