【机器学习03】特征工程

一、为什么需要对数值类型的特征做归一化?

对数值类型的特征做归一化可以将所有的特征都统一到一个大致相同的数值区间内。最常用的方法有以下两种:

(1)线性函数归一化(Min-Max Scaling)

它对原始数据进行线性变换,使结果映射到【0,1】的范围,实现对数据的等比放缩。归一化公式如下

X_{norm}=\frac{X-X_{min}}{X_{max}-X_{min}}

其中X为原始数据,X_{max}X_{min}分别为数据最大值和最小值。

(2)零均值归一化(Z-Score Normalization)

 它会将原始数据映射到均值为0,标准差为1的分布上。具体来说,假设原始特征的均值为\mu、标准差为\sigma,那么归一化公式定义为

z=\frac{x-\mu}{\sigma}

为什么需要对数值型特征做归一化呢?我们不妨借助随机梯度下降的实例来说明归一化的重要性。假设有两种数值型特征,x_1的取值范围为【0,10】,x_2的取值范围为【0,3】,于是可以构造一个目标函数符合图1.1(a)中的等值图。

在学习速率相同的情况下,x_1的更新速度会大于x_2,需要较多的迭代才能找到最优解。如果将x_1x_2归一化到相同的数值区间后,优化目标的等值图会变成图1.1(b)中的圆形。 x_1x_2的更新速度变得更为一致,容易更快地通过梯度下降找到最优解

当然,数据归一化并不是万能的。在实际应用中,通过梯度下降法求解的模型通常是需要归一化的,包括线性回归、逻辑回归、支持向量机、神经网络等模型。但对于决策树模型则并不适用,以C4.5为例,决策树在进行节点分裂时主要依据数据集D关于特征x的信息增益比,而信息增益比跟特征是否归一化是无关的,因为归一化并不会改变样本在特征x上的信息增益。

 二、数据预处理时,怎样处理类别型特征?

1. 序号编码

序号编码通常用于处理类别间具有大小关系的数据。例如成绩,可以分为低、中、高三档,并且存在“高>中>低”的排序关系。序号编码会按照大小关系对类别型特征赋予一个数值ID,例如高表示为3、中表示为2、低表示为1,转换后依然保留了大小关系。

2. 独热编码

独热编码通常用于处理类别间不具有大小关系的特征。例如血型,一共有4个取值(A型血、B型血、AB型血、O型血),独热编码会把血型变成一个4维稀疏向量,A型血表示为(1,0,0,0),B型血表示为(0,1,0,0),AB型血表示为(0,0,1,0),O型血表示为(0,0,0,1)。对于类别取值较多的情况下使用独热编码需要注意以下问题

(1)使用稀疏向量来节省空间。在独热编码下,特征向量只有某一维取值为1,其他位置取值均为0.因此可以利用向量的稀疏表示有效地节省空间,并且目前大部分的算法均接受稀疏向量形式的输入。举个例子:

v=[0,0,0,0,1,0,3,0,0,0]

对于向量 v,其稀疏表示为 

(10,[4,6],[1,3])

10代表 v 的长度,[4,6]表示非零元素的下标,[1,3]表示非零元素的值。

(2)配合特征选择来降低维度。高维度特征会带来几方面的问题。一是K近邻算法中,高维空间下两点之间的距离很难得到有效地衡量;二是逻辑回归模型中,参数的数量会随着维度的增高而增加,容易引起过拟合问题;三是通常只有部分维度是对分类、预测有帮助,因此可以考虑配合特征选择来降低维度。比如PCA。

3. 二进制编码

二进制编码主要分为两步,先用序号编码为每个类别赋予一个类别ID,然后将类别ID对应的二进制编码作为结果。以A、B、AB、O血型为例,表1.1是二进制编码的过程。A型血的ID为1,二进制表示为001;B型血的ID为2,二进制表示为010;以此类推可以得到AB型血和O型血的二进制表示。可以看出,二进制编码本质上是利用二进制对ID进行哈希映射,最终得到0/1特征向量,且维数少于独热编码,节省了存储空间。

除了以上常见的编码方法以外,有兴趣的读者还可以进一步了解其他的编码方式,比如Helmert Contrast、Sum Contrast、Polynomial Contrast、Backward Contrast等。

 三、如何有效地找到组合特征?

1. 什么是组合特征?

为了提高复杂关系的拟合能力,在特征工程中经常会把一阶离散特征两两组合,构成高阶组合特征。以广告点击预估问题(表1.2 是语言和类型对点击的影响)为例,原始数据有语言和类型两种离散特征:

为了提高拟合能力,语言和类型可以组成二阶特征(表1.3 是语言和类型的组合特征对点击的影响):

2. 如何处理高维组合特征?

逻辑回归为例,假设数据的特征向量为 X=(x_1,x_2,...,x_n) 则有,

Y=sigmoid(\sum\limits_{i}\sum\limits_{j} w_{ij}<x_i,x_j>)

 其中 <x_i,x_j> 表示 x_i 和 x_j 的组合特征,w_{ij} 的维度等于 |x_i|\cdot |x_j||x_i| 和 |x_j| 分别代表第 i 个特征和第 j 个特征不同取值的个数。在表1.3 的广告点击预测问题中,w 的维度是 2\times 2=4(语言取值为中文或英文两种、类型的取值为电影或电视两种)。这种特征组合看起来是没有任何问题的,因为此时特征的维数还较低。但尤其是当引入ID类型的时候,问题就出现了。

以推荐问题(表1.4 是用户ID和物品ID对点击的影响)为例:

将用户ID和物品ID组合成一个高维组合特征: 

若数据的数量为 m、物品的数量为 n,那么需要学习的参数的规模为 m\times n。在互联网环境下,用户的数量和物品数量都可以达到千万量级,几乎无法学习 m\times n 级别的参数。

在这种情况下,一种行之有效的方法是:将用户和物品分别用 k 维的低维向量表示(k\ll m, k\ll n)(这儿说一嘴,看书的时候,用k维的低维向量表示并没有给出详细说明,所以这里看得不是很懂,有了解了的不妨可以评论告诉我)

Y=sigmoid(\sum\limits_{i}\sum\limits_{j} w_{ij}<x_i,x_j>)

其中 w_{ij}=x_i^{'}\cdot x_j^{'}x_i^{'} 和 x_j^{'} 分别表示 x_i 和 x_j 对应的低维向量。在 表1.5 的推荐问题中,需要学习的参数规模变为 m\times k+n\times k。熟悉推荐算法的很快可以看出来,这其实等价于矩阵分解(感兴趣的可以了解一下SVD奇异值分解)。所以 ,这里也提供了另一个理解推荐系统中矩阵分解的思路。

3. 怎样有效地找到组合特征?

我们虽然可以利用类似矩阵分解的降维方法来减少两个高维特征组合后需要学习的参数。但是在很多实际问题中,我们常常需要面对多种高维特征。如果简单地两两组合,依然容易存在参数过多、过拟合等问题,而且并不是所有的特征组合都是有意义的。因此,需要有一种有效的方法来帮助我们找到应该对哪些特征进行组合。

这里介绍一种基于决策树的特征组合寻找方法以点击预测问题为例,假设原始输入特征包含年龄、性别、用户类型(试用期、付费)、物品类型(护肤、食品等)4个方面的信息,并且根据原始输入和标签(点击 / 未点击)构造出了决策树,如 图1.2 所示。

于是,每一条从根节点到叶节点的路径都可以看成一种特征组合的方式具体来说,就有以下4种特征组合的方式。

(1)“年龄 <= 35” 且 “性别 = 女”。
(2)“年龄 <= 35” 且 “物品类别 = 护肤”。
(3)“用户类型 = 付费” 且 “物品类别 = 食品”。
(4)“用户类型 = 付费” 且 “年龄 <= 40”。

表1.6 是两个样本信息,那么第 1 个样本按照上述 4 个特征组合就可以编码为(1,1,0,0),因为同时满足(1)(2),但不满足(3)(4)。同理,第 2 个样本可以编码为(0,0,1,1),因为它同时满足(3)(4),但不满足(1)(2)。

给定原始输入该如何有效地构造决策树呢?可以采用梯度提升决策树,该方法的思想是:每次都在之前构建的决策树的残差上构建下一棵决策树。

 四、如何表示文本数据?

文本是一类非常重要的非结构化数据,如何表示文本数据一直是机器学习领域的一个重要研究方向。那么有哪些文本表示模型?以及它们各有什么优缺点?

1. 常见的文本表示模型

1.1. 词袋模型和N-gram模型

最基础的文本表示模型是词袋模型。顾名思义,就是将每篇文章看成一袋子的词,并忽略每个词出现的顺序。具体地说,就是将整段文本以词为单位切分开,然后每篇文章可以表示成一个长向量,向量中的每一维代表一个单词,而该维对应的权重则反映了这个词在原文章中的重要程度。常用 TF-IDF 来计算权重,公式为

\textup{TF-IDF}(t,d)=\mbox{TF}(t,d)\times\mbox{IDF}(t)

其中 \mbox{TF}(t,d) 为单词 t 在文档 d 中出现的频率,\mbox{IDF}(t) 是逆文档频率,用来衡量单词 t 对表达语义所起的重要性,表示为

直观的解释是:如果一个单词在非常多的文章里面都出现,那么他可能是一个比较通用的词汇,对于区分某篇文章特殊语义的贡献较小,因此对权重做一定惩罚(也就是让权重变小)。 

将文章进行单词级别的划分有时候并不是一种好的做法,比如英文中的 natural language processing(自然语言处理)一词,如果将 natural,language,processing 这3个词拆分开来,所表达的含义与三个词连续出现时大相径庭。通常,可以将连续出现的 n 个词(n<=N)组成的词组(N-gram)也作为一个单独的特征放到向量表中去,构成 N-gram 模型。另外,同一个词可能有多种词性变化,却具有相似的含义。在实际应用中,一般会对单词进行词干抽取(Word Stemming)处理,即将不同词性的单词统一成为同一词干的形式

1.2. 主题模型

主题模型用于从文本库中发现有代表性的主题(得到每个主题上面词的分布特性),并且能够计算出每篇文章的主题分布。关于主题模型,后续会出文章详细展开,这里不作具体说明。

1.3. 词嵌入与深度学习模型

词嵌入是一类将词向量化的模型的统称,核心思想是将每个词都映射成低维空间(通常 K=50~300维)上的一个稠密向量(Dense Vector)。K维空间的每一维也可以看作一个隐含的主题,只不过不像主题模型中的主题那样直观。

由于词嵌入将每个词映射成一个K维的向量,如果一篇文档有N个词,就可以用一个N×K维的矩阵来表示这篇文档,但是这样的表示过于底层,在实际应用中,如果仅仅把这个矩阵作为原文本的表示特征输入到机器学习模型中,通常很难得到令人满意的结果。因此,还需要在此基础之上加工出更高层的特征。

在传统的浅层机器学习模型中,一个好的特征工程往往可以带来算法效果的显著提升,

而深度学习模型正好为我们提供了一种自动地进行特征工程的方式:模型中的每个隐层都可以认为对应着不同抽象层次的特征。

从这个角度来讲,深度学习模型能够打败浅层模型也就顺理成章了。卷积神经网络和循环神经网络的结构在文本表示中取得了很好的效果,主要是由于他们能够更好地对文本进行建模,抽取出一些高层的语义特征。与全连接的网络结构相比,卷积神经网络和循环神经网络一方面很好地抓住了文本的特性,另一方面又减少了网络中待学习的参数,提高了训练速度,并且降低了过拟合的风险。


2. Word2Vec

2.1. CBOW 和 Skip-gram

谷歌2013年提出的 Word2Vec 是目前最常用的词嵌入模型之一。Word2Vec 实际是一种浅层的神经网络模型,它有两种网络结构,分别是 CBOW(Continues Bag of Words)和 Skip-gram。

  • CBOW的目标是根据上下文出现的词语来预测当前词的生成概率,如 图 1.3(a)所示;
  • Skip-gram 是根据当前词来预测上下文中各词的生成概率,如 图 1.3(b)所示。

 其中 w(t) 是当前所关注的词,w(t-2)w(t-1)w(t+1)w(t+2) 是上下文中出现的词。这里前后滑动窗口大小均设为 2。

CBOW 和 Skip-gram 都可以表示成由输入层(Input)、映射层(Projection)和输出层(Output)组成的神经网络

  • 输入层中的每个词由独热编码方式表示,即所有词均表示成一个 N 维向量,其中 N 为词汇表中单词的总数。在向量中,每个词都将与之对应的维度置为 1,其余维度的值均设为 0。
  • 在映射层(又称为隐含层)中,K 个隐含单元(Hidden Units)的取值可以由 N 维输入向量以及连接输入和隐含单元之间的 N×K 维权重矩阵计算得到。在CBOW中,还需要将各个输入词所计算出的单元求和。
  • 同理,输出层向量的值可以通过隐含层向量(K 维),以及连接隐含层和输出层之间的 K×N 维权重矩阵计算得到。输出层也是一个 N 维向量,每维与词汇表中的一个单词相对应。最后,对输出层向量应用 Softmax 激活函数,可以计算出每个单词的生成概率。Softmax 激活函数的定义为

P(y=w_n|x)=\frac{e^{x_n}}{\sum\limits_{k=1}^{N}e^{x_k}}

其中 x 代表 N 维的原始输出向量,x_n 为在原始输出向量中,与单词 w_n 所对应维度的取值。

接下来的任务就是训练神经网络的权重,使得语料库中所有单词的整体生成概率最大化。从输入层到隐含层需要一个维度为 N×K 的权重矩阵,从隐含层到输出层有需要一个维度为 K×N 的权重矩阵,学习权重可以用反向传播算法实现,每次迭代时将权重沿梯度更优的方向进行一小步更新,但是由于 Softmax 激活函数中存在归一化项的缘故,推导出来的迭代公式需要对词汇表中的所有单词进行遍历,使得每次迭代过程非常缓慢由此产生了 Hierarchical Softmax 和 Negative Sampling 两种改进方法,有兴趣的读者可以参考 Word2Vec 的原论文(Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space[J]. Computer Science, 2013.)。训练得到维度为 N×K 和 K×N 的两个权重矩阵之后,可以选择其中一个作为N个词的K维向量表示。

2.2. Word2Vec与LDA的区别和联系:

联系:

  • 首先,LDA是利用文档中单词的共现关系来对单词按主题聚类,也可以理解为对“文档-单词”矩阵进行分解,得到“文档-主题”和“主题-单词”两个概率分布。
  • 而 Word2Vec 其实是对“上下文-单词”矩阵进行学习,其中上下文由周围的几个单词组成,由此得到的词向量表示更多地融入了上下文共现的特征。也就是说,如果两个单词所对应的 Word2Vec 向量相似度较高,那么他们很可能经常在同样的上下文中出现。
  • 需要说明的是,上述分析的是 LDA 与 Word2Vec 的不同,不应该作为主题模型和词嵌入两类方法的主要差异。主题模型通过一定的结构调增可以基于“上下文-单词”矩阵进行主题推理。同样地,词嵌入方法也可以根据“文档-单词”矩阵学习出词的隐含向量表示。

区别:

  • 主题模型和词嵌入两类方法最大的不同其实在于模型本身。主题模型是一种基于概率图模型的生成式模型,其似然函数可以写成若干条件概率连乘的形式,其中包括需要推测的隐含变量(即主题);
  • 而词嵌入模型一般表达为神经网络的形式,似然函数定义在网络的输出之上,需要通过学习网络的权重以得到单词的稠密向量表示。

五、图像数据不足时的处理办法

在机器学习中,绝大部分模型都需要大量的数据进行训练和学习(包括有监督学习和无监督学习),然而在实际应用中经常会遇到训练数据不足的问题。比如图像分类,作为计算机视觉最基本的任务之一,其目标是将每幅图像划分到指定类别集合中的一个或多个类别中。当训练一个图像分类模型时,如果训练样本比较少,该如何处理呢?

1. 在图像分类任务中,训练数据不足会带来什么问题?

一个模型所能提供的信息一般来源于两个方面,一是训练数据中蕴含的信息;二是在模型的形成过程中(包括构造、学习、推理等),人们提供的先验信息。当训练数据不足时,说明模型从原始数据中获取的信息比较少,这种情况下想要保证模型的效果,就需要更多先验信息。先验信息可以作用在模型上,例如让模型采用特定的内在结构、条件假设或添加其他一些约束条件;先验信息也可以直接添加在数据集上,即根据特定的先验假设去调整、变换或扩展训练数据,让其展现出更多的、更有用的信息,以利于后续模型的训练和学习。

具体到图像分类任务上,训练数据不足带来的问题主要表现在过拟合方面,即模型在训练样本上的效果可能不错,但在测试集上的泛化效果不佳。


2. 如何缓解数据量不足带来的问题?

根据上述讨论,对应的处理方法大致也可以分两类

一是基于模型的方法,主要是采用降低过拟合风险的措施包括简化模型(如将非线性模型简化为线性模型)、添加约束项以缩小假设空间(如L1/L2正则项)、集成学习、Dropout超参数等;

二是基于数据的方法,主要通过数据扩充(Data Augmentation),即根据一些先验知识,在保持特定信息的前提下,对原始数据进行适当变换以达到扩充数据集的效果。具体到图像分类任务中,在保持图像类别不变的前提下,可以对训练集中的每幅图像进行以下变换

  • 一定程度内的随机旋转、平移、缩放、裁剪、填充、左右翻转等,这些变换对应着同一个目标在不同角度的观察结果。
  • 对图像中的像素添加噪声扰动,比如椒盐噪声、高斯白噪声等。
  • 颜色变换。例如,在图像的RGB颜色空间上进行主成分分析,得到3个主成分的特征向量p1,p2,p3以及对应的特征值λ1,λ2,λ3,然后在每个像素的RGB值上添加增量[p1,p2,p3]·[α1λ1,α2λ2,α3λ3]T,其中α1,α2,α3是均值为0、方差较小的高斯分布随机数。
  • 改变图像的亮度、清晰度、对比度、锐度等。

图1.4展示了一些图像扩充的具体样例。

  • 除了直接在图像空间进行变换,还可以先对图像进行特征提取,然后在图像的特征空间内进行变换,利用一些通用的数据扩充或上采样技术,例如SMOTE(Synthetic Minority Over-sampling Technique)算法。
  • 抛开上述这些启发式的变换方法,使用生成模型也可以合成一些新样本,例如当今非常流行的生成式对抗网络模型。
  • 此外,借助已有的其他模型或数据来进行迁移学习在深度学习中也十分常见。例如,对于大部分图像分类任务,并不需要从头开始训练模型,而是借用一个在大规模数据集上预训练好的通用模型,并在针对目标任务的小数据集上进行微调(fine-tune),这种微调操作就可以看成是一种简单的迁移学习。 
  • 9
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
《面向机器学习特征工程pdf》是一本关于机器学习领域中特征工程的书籍。特征工程机器学习中非常重要的一环,其涉及到从原始数据中提取有意义、有用的特征,并将其转化为机器学习算法可以接受的形式。 这本书的主要内容包括特征工程的基本概念、原理和方法,以及在实际应用中的具体实践。首先,书中介绍了特征工程的意义和作用,强调了良好的特征工程机器学习模型性能的提升具有至关重要的作用。 接着,书中详细讲解了常用的特征选择和特征提取方法。特征选择是筛选出对目标变量有最大相关性的特征,以减少特征的维度和冗余性;而特征提取是从原始数据中抽取出最具代表性的特征,以提高模型的泛化能力。书中列举了一些常用的特征选择和特征提取方法,如方差选择、相关系数、主成分分析等,并提供了相应的算法原理和实例。 此外,书中还介绍了一些特征工程中常见的问题和挑战,如缺失值处理、异常值处理和特征缩放等。对于这些问题,书中给出了一些有效的解决策略和技巧,并提供了实际案例和代码示例,帮助读者理解和应用这些方法。 总的来说,《面向机器学习特征工程pdf》是一本系统全面介绍机器学习特征工程的书籍。它将理论和实践结合起来,通过丰富的案例和示例,帮助读者理解和掌握特征工程的基本原理和方法,并能够在实际应用中灵活运用。无论是初学者还是有一定经验的机器学习从业者,都可以从这本书中获得很多有价值的知识和经验。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值