文本分类入门(三)——相关概念总结

文本分类入门(三)——相关概念总结


  • 学习方法:使用样例(或称样本,训练集)来合成计算机程序的过程称为学习方法[22]。
  • 监督学习:学习过程中使用的样例是由输入/输出对给出时,称为监督学习[22]。最典型的监督学习例子就是文本分类问题,训练集是一些已经明确分好了类别文档组成,文档就是输入,对应的类别就是输出。
  • 非监督学习:学习过程中使用的样例不包含输入/输出对,学习的任务是理解数据产生的过程 [22]。典型的非监督学习例子是聚类,类别的数量,名称,事先全都没有确定,由计算机自己观察样例来总结得出。
  • TSR(Term Space Reduction):特征空间的压缩,即降维,也可以叫做特征提取。包括特征选择和特征抽取两大类方法。
  • 分类状态得分(CSV,Categorization Status Value):用于描述将文档归于某个类别下有多大的可信度。
  • 准确率(Precision):在所有被判断为正确的文档中,有多大比例是确实正确的。
  • 召回率(Recall):在所有确实正确的文档中,有多大比例被我们判为正确。
  • 假设:计算机对训练集背后的真实模型(真实的分类规则)的猜测称为假设。可以把真实的分类规则想像为一个目标函数,我们的假设则是另一个函数,假设函数在所有的训练数据上都得出与真实函数相同(或足够接近)的结果。
  • 泛化性:一个假设能够正确分类训练集之外数据(即新的,未知的数据)的能力称为该假设的泛化性[22]。
  • 一致假设:一个假设能够对所有训练数据正确分类,则称这个假设是一致的[22]。
  • 过拟合:为了得到一致假设而使假设变得过度复杂称为过拟合[22]。想像某种学习算法产生了一个过拟合的分类器,这个分类器能够百分之百的正确分类样本数据(即再拿样本中的文档来给它,它绝对不会分错),但也就为了能够对样本完全正确的分类,使得它的构造如此精细复杂,规则如此严格,以至于任何与样本数据稍有不同的文档它全都认为不属于这个类别!
  • 超平面(Hyper Plane):n维空间中的线性函数唯一确定了一个超平面。一些较直观的例子,在二维空间中,一条直线就是一个超平面;在三维空间中,一个平面就是一个超平面。
  • 线性可分和不可分:如果存在一个超平面能够正确分类训练数据,并且这个程序保证收敛,这种情况称为线形可分。如果这样的超平面不存在,则称数据是线性不可分的[22]。
  • 正样本和负样本:对某个类别来说,属于这个类别的样本文档称为正样本;不属于这个类别的文档称为负样本。
  • 规划:对于目标函数,等式或不等式约束都是线性函数的问题称为线性规划问题。对于目标函数是二次的,而约束都是线性函数的最优化问题称为二次规划问题[22]。
  • 对偶问题:

给定一个带约束的优化问题

目标函数: m i n f ( x ) min f(x) minf(x)

约束条件: C ( x ) ≥ 0 C(x) ≥0 C(x)0

可以通过拉格朗日乘子构造拉格朗日函数

L ( x , λ ) = f ( x ) − λ T C ( x ) L(x,λ)=f(x)- λTC(x) L(x,λ)=f(x)λTC(x)

g ( λ ) = f ( x ) − λ T C ( x ) g(λ)= f(x)- λTC(x) g(λ)=f(x)λTC(x)

则原问题可以转化为

目标函数: m a x g ( λ ) max g(λ) maxg(λ)

约束条件: λ ≥ 0 λ≥0 λ0

这个新的优化问题就称为原问题的对偶问题(两个问题在取得最优解时达到的条件相同)。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值