#今日论文推荐#华为人大清华最新论文:推荐领域的Benchmark终于出现了?

这篇博文介绍了推荐领域Benchmark的重要性,指出现存问题如缺乏公认数据集、评价指标不统一及复现性挑战。论文《BARS:TowardsOpenBenchmarkingforRecommenderSystems》提出开放的推荐系统Benchmark解决方案,旨在促进领域内标准化。BARS由华为、人大、清华和港中文联合发布,为推荐系统研究提供了一套易用的框架和标准。
摘要由CSDN通过智能技术生成

#今日论文推荐#华为人大清华最新论文:推荐领域的Benchmark终于出现了?

今天这篇博文将讨论一下推荐领域Benchmark的一些问题,也会介绍一下最新论文《BARS: Towards Open Benchmarking for Recommender Systems》中的一些观点。

论文链接:BARS: Towards Open Benchmarking for Recommender Systems - AMiner
首先讲讲什么是Benchmark,所谓Benchmark就是用来做比较的规范。在现在的AI领域中,包括NLP、CV等,一个典型的Benchmark通常包含数据集、指标和计算性能的方式。当然它的前提是领域内的人都愿意接受这个规范。因此,为了确保让大家接受,近期的许多基准,要么选择一组具有代表性的标准任务,例如GLUE 或 XTREME;要么会通过征集的意见来构建,例如SuperGLUE、GEM 或 BIG-Bench等。
那么这个规范有什么用呢?没有这个规范会怎么样呢?这个规范就是用来对比的,做出让大家信服的对比。如果没有这样一个规范,比如某论文在一些冷门数据集上做实验,甚至用一些冷门的评价指标,告诉大家XXX模型取得了多少多少的提升,这很难让大家信服。
而当前推荐领域的Benchmark是一直被诟病的一件事情,目前该领域的研究存在一些问题:

  1. 没有被一致认同的数据集和评价指标。推荐由于其强烈的工业属性,一般在工业界被划分为召回和排序,再细分可能还有粗排、精排、重排等等。其中在召回阶段,候选项(Candidate Items)是很多的,常常上亿,而现有的公开数据集往往达不到这一个要求。这也成为了一个学术界和工业界的鸿沟,就是数据规模问题。其次,在推荐领域的评价指标五花八门,现在往往是拿信息检索的指标来做评价的,而在工业界普遍认为,如果评价指标看的是AUC就是排序,评价指标是Recall和NDCG就是召回,但是学术界在撰写论文的时候并没有写的那么清楚。
  2. 不可复现性。这个就不说了,懂得都懂。
  3. 没有一套易上手的框架。现在在推荐领域比较知名的框架是RecBole,但它只能算是一个代码库,就是方便研究人员对比一些常见Baseline,离真正意义上的Benchmark还有一些距离。

《BARS: Towards Open Benchmarking for Recommender Systems》是华为、人大、清华和港中文联合发布的最新的推荐领域的Benchmark,他们开源了这一工具https://openbenchmark.github.io/BARS/,这篇论文我很推荐初学者去阅读,其中没有冷门的词汇,通读下来很顺畅,也能对推荐有一个大体的了解。
好了言归正传,我们今天主要来看看这篇论文中一些有趣的结论。

论文题目:BARS: Towards Open Benchmarking for Recommender Systems
详细解读:https://www.aminer.cn/research_report/62b1601f7cb68b460fd7c804?download=false
AMiner链接:https://www.aminer.cn/?f=cs

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值