特征选择和特征学习中的过完备

       ScSPM的论文中提到了码书的过完备(over-complete)。一开始没有太在意过完备有什么问题,今天想了想把这个概念弄明白了。

       特征学习的过程中,假设学习的码书D的大小为M。每个码字的维数为N。每个原始特征Yi的维数也为N。假设原始特征投影到码书上以后的特征向量是Xi(M维的矢量),那么用D和Xi对Yi重建的过程就是:Yi=D*Xi。

         coding的过程就变成了已知Yi和D,求Xi的过程了。显然这是一个非齐次方程组求解的问题,方程组有解的条件是rank(D)≤M,其中取等号时方程组有唯一解。过完备的定义是M>>N,所以此时rank(D)≤N<<M,此时方程组有无穷多解。(你可能会问,这和最小化平方误差为目标函数不一样啊!其实求个导,就变成这个方程组了。)这就是过完备造成的问题了。怎么办呢?办法就是对Xi做约束------稀疏的约束,这样Xi就有唯一解了。这就是需要加约束的原因。而为什么是稀疏的约束,这在我前两博客(这里这里)中稍微介绍过,这里就不再废话。

       特征选择的过程,也是一样的。假设此时有n个样本,每个样本有个measurement(这个measurement可以是regression中的output,也可以是classification中的label)。每个样本的特征是p维的,n个样本的特征组成n*p的矩阵A。目标是对这p维特征做一个选择,选择的系数用x记录。此时将如下图所示:

       这与第一个图是等价的,特征选择过程中的over-complete是指p>>n,不加约束的情况下x将有无穷多组解,所以和特征学习一样,加系数的约束。xi为0表示相应的特征不被选择。(而xi<0,等价于取一个|xi|,而将相应的特征的值取负号。)

       如果measurement不是一维的咋办?比如multi-label的问题。我猜测把x的列维数也扩展成相应大小,然后根据label之间的correlation加低秩等约束吧。

 

 

-------------------

作者:jiang1st2010

转载请注明原文地址:http://blog.csdn.net/jwh_bupt/article/details/9969841

  • 4
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值