【ZJU-Machine Learning】特征选择——自适应提升算法Adaboost

启发式方法

递增法:

先从x中选一个特征,构造分类器,计算准确率,然后再从x的剩余特征中选择一个特征,计算准确率,一直加,直到准确率开始下降。

递减法:

同上,只不过一开始是所有的特征,然后一个一个减,直到准确率下降。

基因算法

模拟退火算法

事实上,神经网络可以代替以上方法,随着不断训练网络,对于特征不明显的w值将不断减小。

Adaboost

主要思想:找到尽可能少的特征(可能仅有一个),最大限度的将数据集分开,构成弱分类器。对这些弱分类器分错的样本进行加强训练(采样多次),分对的则相应减少样本,对这个样本,我们新找到一个或若干个特征,使其最大限度分开这一个数据集。如此循环,得到很多个分类器及特征。最后,我们按每个分类器的准确率为权重,得到所有的特征。

样本采样的概率是根据弱分类器的性能来定的,一开始是均匀采样,后来根据前面的先验不断调整样本被采样到的概率。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

定理

i()指示函数,输入相同值为1,不同为0

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值