pandas中利用get_dummies()进行独热编码(One-Hot encoding)

 在机器学习分类任务中,经常存在一个特征有多个分类变量值,例如在kaggle中的Titanic比赛数据中,Embarked的值有S,C,Q。我们这个时候要对离散型数据进行onehot编码处理,至于onehot编码的优点以及为什么要用onehot编码?可以参考这篇博文:数据预处理:独热编码(One-Hot Encoding)

一、onehot的优点

       onehot编码的优点可以总结如下:

1、能够处理非连续型数值特征。

2、在一定程度上也扩充了特征。比如性别本身是一个特征,经过one hot编码以后,就变成了男或女两个特征。

3、使用one-hot编码,将离散特征的取值扩展到了欧式空间,离散特征的某个取值就对应欧式空间的某个点,在回归,分类,聚类等机器学习算法中,特征之间距离的计算或相似度的计算是非常重要的,而我们常用的距离或相似度的计算都是在欧式空间的相似度计算,计算余弦相似性,基于的就是欧式空间。

5、将离散型特征使用one-hot编码,可以让特征之间的距离计算更加合理,相当于做了归一化处理。

 

二、特征的归一化处理

基于树的方法不需要进行特征的归一化,决策树是没有特征大小的概念的,只有特征处于他分布的哪一部分的概念。例如随机森林,bagging与boosting等方法。如果是基于参数的模型或者基于距离的模型,因为需要对参数或者距离进行计算,都需要进行归一化。关于归一化的详细介绍,可以参考 数据标准化/归一化normalization

 

三、Python中采用哪种函数进行onehot编码

在pandas和sklearn中都有相应的onehot编码函数,推荐采用get_dummies()函数,具体关于这些函数的介绍以及区别,可以参考这篇文章http://blog.csdn.net/wl_ss/article/details/78508367

 

四、onehot编码后去掉冗余特征的处理

      一般来说,进行onehot编码后,如果有N个特征,已知前N-1个特征的特征值之后,第N个特征的特征值也就知道了。例如知道前N-1个特征的特征值都为0,那么第N个特征为1.如果前面有某一个特征为1,则第N个特征为0。

(If a factor variable has N levels, the number of dummy variables created from the factor is always N-1. Does not really matter which variable is being dropped. It becomes a baseline variable and the coefficient for this variable is added to a "shared" intercept.

来自:https://www.kaggle.com/omarelgabry/a-journey-through-titanic

其中维基百科https://en.wikiversity.org/wiki/Dummy_variable_(statistics)里面也对相关问题做了非常详细的描述。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值