(《机器学习》完整版系列)第11章 特征选择与稀疏学习——11.3 包裹式选择(特征选择的LVW算法:打开包裹)

讨论了特征选择的包裹式选择的代表LVW。
从图中可以看出,像打开包裹一样,一层一层的。

包裹式选择

基于给定的学习算法 L \mathfrak{L} L而定制的特征选择称为包裹式选择,代表性的有LVW。
图11.2 LVW

图11.2 LVW

在第 k k k步,对于属性集 A k A^k Ak,算法 L \mathfrak{L} L的性能度量为 E k E^k Ek,在集 A k A^k Ak内随机取一个子集 A − A^- A(如,随机去掉一个元素形成的子集),则依算法 L \mathfrak{L} L的预测结果,可以算得子集 A − A^- A上的性能 E − E^- E,若 E − E^- E好于 E k E^k Ek,则取子集 A − A^- A为下一步的属性集 A k + 1 A^{k+1} Ak+1,即图11.2中,左侧内部矩形“拉出来”,形成右侧外部矩形。 否则,在 A k A^k Ak中重新选子集 A − A^- A,并对选择次数 t t t进行计数,当达到设定的次数 T T T时结束。

在右侧外部矩形中(即 A k + 1 A^{k+1} Ak+1上)重复上述过程,即从 k k k(图的左侧)递进到了 k + 1 k+1 k+1(图的右侧),继续递进,直至满足结束条件。

值得注意的是学习算法 L \mathfrak{L} L是基于样本集的,设样本集为 D D D,在选定的子集 A − A^- A上,样本集变为 D A − D^{A^-} DA(表示 D D D中的每个样本都删除了指定的属性,只保留 A − A^- A中包含的属性),在样本集 D A − D^{A^-} DA上应用算法 L \mathfrak{L} L,并通过交叉验证获得对应的误差上的性能 E − E^- E(作为性能度量)。

综上,整理即得【西瓜书图11.1】的LVW算法,其中, A ∗ , A ′ , E , E ′ A^*,A',E,E' A,A,E,E分别对应于这里的 A k , A − , E k , E − A^k,A^-,E^k,E^- Ak,A,Ek,E

LVW算法中是采用“贪心”策略,即发现 A − A^- A A k A^k Ak优,就选择 A − A^- A作为 A k + 1 A^{k+1} Ak+1,可以优化一下使它不那么“贪心”,如,随机生成多个 A − A^- A,通过比较取性能最好的 A − A^- A作为 A k + 1 A^{k+1} Ak+1

本文为原创,您可以:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值