1. Adaboost
boost算法通过学习一系列的弱分类器,通过加权得到一个强分类器
Adaboost首选假设每个样本权值相通为1/N。然后学习第一个分类器,然后计算样本在该分类器下的误差率(误分类样本的加权和):
根据误差率得到一个系数,这个系数也是当前这个分类器的权重:
然后更新样本的权重:
然后根据新的样本分布去训练一个新的分类器。
最后的分类器可表示为这些分类器的加权和:
boost算法通过学习一系列的弱分类器,通过加权得到一个强分类器
Adaboost首选假设每个样本权值相通为1/N。然后学习第一个分类器,然后计算样本在该分类器下的误差率(误分类样本的加权和):
根据误差率得到一个系数,这个系数也是当前这个分类器的权重:
然后更新样本的权重:
然后根据新的样本分布去训练一个新的分类器。
最后的分类器可表示为这些分类器的加权和: