回归过程
adaboost的核心就是求当前分类器的权重,和更新样本的误差。
样本的权重是根据当前分类器的误差率来计算的,当前模型的误差率通过如下方法来计算:
1. 计算训练集上的最大误差
2. 计算每个样本的相对误差
相对误差的计算方法与误差的计算方法有关,比如平方误差:
3.计算当前学习器的误差率
4. 计算当前学习器的权重
没有取`ln`
5.更新样本的权重
其中
adaboost的核心就是求当前分类器的权重,和更新样本的误差。
样本的权重是根据当前分类器的误差率来计算的,当前模型的误差率通过如下方法来计算:
1. 计算训练集上的最大误差
2. 计算每个样本的相对误差
相对误差的计算方法与误差的计算方法有关,比如平方误差:
3.计算当前学习器的误差率
4. 计算当前学习器的权重
没有取`ln`
5.更新样本的权重
其中