在很多机器学习任务中,特征并不总是连续值,而有可能是分类值,下面进行实例说明。
import pandas as pd
df = pd.DataFrame([
['green', 'M', 10.1, 'class1'],
['red', 'L', 13.5, 'class2'],
['blue', 'XL', 15.3, 'class1']],columns = ['color', 'size', 'prize', 'class label'])
print(df)
'''
color size prize class label
0 green M 10.1 class1
1 red L 13.5 class2
2 blue XL 15.3 class1
'''
如果将上述特征用数字表示,效率会高很多。
例如:‘class1’:1,’class2’:2
但是,即使转化为数字表示后,上述数据也不能直接用在我们的分类器中。因为,分类器往往默认数据数据是连续的,并且是有序的。但是,按照我们上述的表示,数字并不是有序的,而是随机分配的。
为了解决上述问题,其中一种可能的解决方法是采用独热编码(One-Hot Encoding)。
独热编码即 One-Hot 编码,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候,其中只有一位有效。
可以这样理解,对于每一个特征,如果它有m个可能值,那么经过独热编码后,就变成了m个二元特征。并且,这些特征互斥,每次只有一个激活。因此,数据会变成稀疏的。
这样做的好处主要有:
解决了分类器不好处理属性数据的问题
在一定程度上也起到了扩充特征的作用
from sklearn import preprocessing
#导入数据处理模块,并生成one_hot()编码函数
enc = preprocessing.OneHotEncoder()
#使用上一步的数据进一步编码
print(df['prize'].values.reshape(-1,1))
enc.fit(df['prize'].values.reshape(-1,1))
one_v = enc.transform([[13]]).toarray()
print(one_v)