boosting算法_AISTATS2018|密歇根大学提出新型在线boosting算法用于多标签排序(已开源)...

Online Boosting Algorithms for Multi-label Ranking

Young Hun Jung, Ambuj Tewari

University of Michigan

http://proceedings.mlr.press/v84/jung18a/jung18a.pdf

这篇文章主要讨论多标签排序。

Boosting是一种比较适合多标签排序的方法,它能够通过多数表决来聚合多个弱学习器的结果,这些结果可以直接当作评分,进而得到标签的排序。

作者们设计了在线boosting算法用于多标签排序,并且证明了损失下界。

该文章的第一个算法从学习器的个数来说是最优的,同时保证得到期望的准确率,但是该算法需要弱学习器的边缘知识。为了避免这个问题,作者们设计了一种不需要这种知识的自适应算法,这样就会更加实用。

实验结果表明,在真实数据集上,本文算法至少跟现有批式boosting算法一样好。

在线boosting跟离线的boosting区别如下

93cec786a45bab6c7009002a979a0a6b.png

问题描述及符号约定如下

0a8a659a5f5e72f05f2b78d0ea837f04.png

设计思路及框架如下

44fab7cb15e96b97074efca9871c17ff.png

本文采用的boosting框架如下

c202b0ee81a6607206bc34e439ccee89.png

算法伪代码如下

896b4f865690f2da51207240badf9dac.png

针对基学习器,可以定义以下属性,即学习器的边界

c5c218f9af254aca7158131f4140ce58.png

在线弱学习条件的相关定义如下

5eafe996f21a4f238cf13ed373025aa7.png

关于损失向量,具有以下特性

66b18c8725657cebb7ad156dd5c49b88.png

势函数的定义如下

8a9dcecdad88dfc1f41cf02516b6446f.png

进一步,需要进行归一化处理

eca50fb957a6038e96f322d85355dda2.png

算法详情如下

117496f5a04e5fe16648a080cf0a0c3b.png

下面是对应的算法伪代码

8f378118c9a5a491c4a9f5e256e6b2ee.png

相关定理

3ec76477249a6ebbafeab7a1059feee9.png

关于损失函数,可以利用hinge loss

6fe01e446b237e3161a77bfebd6ccbe3.png

下面是一些推论

b28c3a9c7849f38be19ed20efe1e763a.png

OnlineBMR具有一定的局限性,比如势函数没有闭解等,作者们提出一种新的自适应选择权重的算法。

07bb61c5bb8945363b1c018f7cfa3e44.png

新算法所利用的损失函数如下

3c852bfbaad50ba31383c76f64b43c4d.png

这种算法所对应的一些细节如下,其中依赖于累积逻辑损失

2884d8477c5253f631729fa30c7ad439.png

其中OLMR全称为

Online, Logistic, Multi-label, and Ranking

该算法依赖于在线梯度下降方法

d2b1272b04ac1d96289a4599b4d264c1.png

该算法的伪代码如下

41af5474d7704197d4f6d5669401d9c9.png

排序损失对应的下界为

b5aca9195d1d36623bb54765b3e1e090.png

数据集信息统计如下

e6895e7530f580c86b98e1ffdf9174f0.png

几种算法效果及运行时间对比如下

3b6c5b3e878c0a5bf2cd102f1973475d.png

代码地址

https://github.com/yhjung88/OnlineMLRBoostingWithVFDT


              b015e8d6adb554ae26555b0d476abdab.png我是分割线b015e8d6adb554ae26555b0d476abdab.png


您可能感兴趣

KDD2019|基于注意力的深度学习如何实时预测购买还是浏览

AAAI2020|一种新型高效兼容多行为的推荐系统模型EHCF(已开源)

ICML2007|深度学习用于协同过滤的开篇作之一(出自深度学习鼻祖之一Hinton)

SIGIR2019|基于BERT的深度学习模型在信息检索中的应用(已开源)

SIGIR2019|基于注意力机制的新型深度学习模型(采莓树模型BIRD,已开源)

SIGIR2019|深度学习如何更好地用于学习排序(LTR)(已开源)

SIGIR2019|利用DeepSHAP来解释神经检索模型(已开源)

KDD2018|基于GBM的动态定价回归模型

KDD2018|超越deepfm的CTR预估模型深层兴趣网络DIN(已开源)

RecSys2019|优于DeepFM和XDeepFM的CTR模型FiBiNET

SIGIR2018|选择性GBDT(SelGB)用于排序学习(已开源)

IJCAI2019|基于对抗变分自编码的协同过滤框架VAEGAN

聊聊CatBoost

聊聊XGBoost CatBoost LightGBM RF GBDT

顶会中深度学习用于CTR预估的论文及代码集锦 (3)

ICML 2018 深度学习论文及代码集锦(5)

深度学习用于文本摘要的论文及代码集锦

深度学习用于机器翻译的论文及代码集锦

深度学习用于序列标注中的论文及代码集锦

深度学习在推荐系统中的应用及代码集锦(4)

深度学习在OCR中的应用论文及代码集锦 (2)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值