TrAdaBoost
https://www.jianshu.com/p/8ed0703db2c7
其中涉及的知识
boosting
https://blog.csdn.net/starter_____/article/details/79328749
Adaboost
https://www.cnblogs.com/ScorpioLu/p/8295990.html
-
AdaBoost改变了训练数据的权值,也就是样本的概率分布,其思想是将关注点放在被错误分类的样本上,减小上一轮被正确分类的样本权值,提高那些被错误分类的样本权值。然后,再根据所采用的一些基本机器学习算法进行学习,比如逻辑回归。(也就是每个训练样本有权重,在下次训练的时候权重大的容易被挑选出来训练。权重的设定和之前训练的正确度有关,训练时预测错误的样本会被设置成更大的权重,这样在之后的训练中再次选出他来训练;之前训练预测正确的样本就会设置小的权重,这样之后就不太容易挑选他,因为我们认为分类器已经可以把它分类的很好。)
-
AdaBoost采用加权多数表决的方法,加大分类误差率小的弱分类器的权重,减小分类误差率大的弱分类器的权重。这个很好理解,正确率高分得好的弱分类器在强分类器中当然应该有较大的发言权
TrAdaBoost和Adaboost的区别
Adaboost的样本来源是同一个域
TrAdaBoost的样本来源两个域,更新的时候两个域的权重更新方式不同。对于new data域,当样本预测错误的时候,它的权重会变大,和AdaBoost算法一样;对于old data域,当样本预测错误的时候,他的权重会变小,因为此时认为这个old data和new data的分布相差太远,并不是related的。
MultiSourceTrAdaBoost
- 训练的时候样本权重的更新与之前的tradaboost和adaboost一样
- 其中弱分类器有N个,分别是T域和N个中的一个S域一起训练得到
- 通过计算分类error来判断选择哪个分类器作为目标分类器的更新的选择