小模型大智慧!港大重磅开源EasyRec,推荐系统进入语言模型时代

949ef3717b884d037177fc19d3650b5d.gif

在当今的信息时代,我们每天都被海量信息所包围,不断面临各种选择。从网上购物、音乐播放到视频推荐,推荐系统已经成为我们生活中不可或缺的一部分。那么,这些系统是如何运作的?它们又是如何在信息的洪流中帮助我们找到所需的内容的呢?

推荐系统的核心在于预测用户的兴趣,从而提供个性化的建议。传统方法主要依赖于用户的历史行为数据,但在面对新用户或新项目时,这种方法往往显得无力,即所谓的“冷启动”问题。此外,用户兴趣的变化也对推荐系统提出了持续学习和适应的要求。

深度学习,特别是深度神经网络,为这一领域带来了新的突破,能够捕捉到用户与项目之间的复杂关系。然而,在新用户、新项目以及动态变化的用户兴趣面前,传统的深度学习方法依然存在局限。

在这种背景下,我们将介绍由香港大学的学者在文章《EasyRec: Simple yet Effective Language Models for Recommendation》提出的名为 EasyRec 的语言模型。该模型采用创新的文本推荐方式,为推荐系统开辟了新的前景。本文将深入探讨该模型的工作原理、实际应用效果,以及它在理解和预测用户兴趣方面的优势。

ee2a1e519c9885e321959abdf4d72114.png

文章地址:

http://arxiv.org/abs/2408.08821

开源代码:

https://github.com/HKUDS/EasyRec

港大数据智能实验室:

https://sites.google.com/view/chaoh/home

e9e8befc4a289b872d86d2de88d4e0cf.png

深度学习与推荐系统

在推荐系统的发展过程中,深度神经网络(DNNs)起到了重要的作用。通过挖掘用户与商品之间的深层互动关系,DNNs 为协同过滤技术带来了新的发展动力。协同过滤是一种基于用户或商品相似性进行推荐的方法,借助深度学习,其性能得到了显著提升。

然而,现有的深度协同过滤模型依然面临诸多挑战。尤其是,这些模型高度依赖用户和商品的唯一标识符(ID),这在实际应用中带来了诸多不便。对于新用户或新上架的商品,由于缺乏足够的数据支持,模型往往难以提供准确的推荐。

同时,当市场环境或用户喜好发生变化时,模型的适应能力也显得不足。特别是在零样本学习场景中,即当用户或商品没有历史交互数据时,传统的协同过滤方法显得无能为力。为了解决这些问题,研究者们开始转向语言模型(LMs)。这些模型在自然语言处理领域表现优异,通过文本向量化技术,构建了一个通用的特征空间。这意味着,即使在缺乏用户和商品 ID 的情况下,我们仍然可以实现有效的推荐。

44c002c0be91a134086b27581668b48a.png

基本知识

9973d8fe6e02c143fa107ee6554a2424.png

首先,我们需先了解推荐系统的基础概念和表示方法,这些知识是理解模型工作原理的关键。在推荐系统中,我们定义了用户集合 和商品集合 。每个用户 有一个交互过的商品集合 。而每个商品 则有一个交互过的用户集合 ,交互过的用户集合。用户-商品的交互可以通过一个交互矩阵 来表示,其中 为 1 表示用户 与商品 有过交互,否则为 0。

基于文本的零样本推荐。零样本推荐技术在解决新用户或新商品缺乏交互数据的问题上起着关键作用。当系统面对新用户或新商品时,往往由于缺乏足够的历史交互数据而难以提供准确的个性化推荐。为了应对这一挑战,我们提出了一种基于文本的方法。该方法通过利用用户和商品的文本描述,采用强大的语言模型来构建语义表示,实现基于文本的推荐。具体而言,我们为每个用户和商品获取相应的文本画像。

然后,这些文本会通过语言模型转化为向量表示,类似于将文本内容转换为一种数值形式。这些向量表示能够捕捉到文本中的语义信息,帮助系统理解用户和商品之间的关系。

接下来,系统会计算用户和商品的文本向量之间的相似度。相似度越高,意味着用户可能对该商品更感兴趣。系统会根据这些相似度得分,为用户推荐那些与其兴趣最为接近的商品。通过这种基于文本的推荐方法,即使在没有历史交互数据的情况下,系统也能够为新用户或新商品提供精确的个性化推荐,解决了零样本推荐中的难题。

文本增强的协同过滤协同过滤(CF)是推荐系统中的核心技术之一,它通过分析用户与用户、商品与商品之间的相似性,为用户推荐可能感兴趣的商品。然而,传统的协同过滤方法主要依赖于用户和商品的 ID,这在面对新用户或新商品时,效果往往不尽如人意。

为了解决这一问题,我们提出了一种文本增强的协同过滤方法。这种方法不仅仅依赖于用户与商品的交互数据,还引入了通过语言模型生成的文本特征。具体地说,对于每个用户和商品,我们会将他们的文本描述通过语言模型转化为嵌入向量。这些文本嵌入提供了丰富的语义信息,使得模型能够做出更精确的推荐。

78c6ad31ca4fa6d354fe264bb8d341ee.png

EasyRec

3.1 构建用户和商品文本画像

在实际应用中的推荐系统数据集中,我们经常会遇到数据受限的问题。例如,只能获取与商品相关的基础文本信息,如商品标题和分类,同时由于隐私保护的原因,用户信息的收集也受到限制。直接使用这些原始文本数据,可能会忽略对精确用户行为建模和偏好识别至关重要的协同关系。为了克服这些限制,我们提出利用大型语言模型并结合协同信息,来为用户和商品生成详细的文本画像。

我们的目标是创建能够全面描述商品特点和用户偏好的文本画像。对于商品来说,文本画像不仅展示商品的基本信息,还要体现出可能吸引的用户群体。而对于用户,文本画像则基于其历史交互记录和商品评价,揭示其偏好的商品类型。为实现这一目标,我们采用了协同画像生成方法,通过整合交互数据与原始文本,利用大型语言模型生成这些画像。

画像策略的优势分析:

(i) 我们的协同画像方法不仅依赖于原始文本,还能更加深入地捕捉用户和商品的特性及其交互的语义。通过利用推荐系统专用的语言模型,这些丰富的画像信息被编码到共享特征空间中,使得已交互的用户和商品表征更加接近。这显著提升了推荐系统在识别相关匹配项上的能力,特别是针对“零样本”用户和商品——即那些没有先前交互记录的对象,这在实际应用中非常常见。借助文本画像中蕴含的协同信号,系统能够做出更为精准的推荐,从而有效缓解冷启动问题。

(ii) 基于这种画像训练的语言模型,使推荐系统能够迅速响应用户偏好和交互模式的变化。其独特优势在于,只需简单更新文本用户画像,即可实时反映用户兴趣和行为的变化。这种高度的灵活性使得我们的方法非常适用于用户兴趣随时间变化的动态环境中的推荐系统。

3.2 模型架构与训练

1d53808352fc7dba0ae59b45e71f70fd.png

EasyRec 的推荐系统核心采用了多层双向 Transformer 架构,其具有两个显著的优势:

首先,该架构可以编码有效的文本表示,它的码编码器设计使得推理过程更加高效。这一高效性使得系统可以迅速处理大量用户和商品信息,为实时推荐提供了强大的支持。

其次,该架构的适应性使我们能够通过优化学习过程来调整预训练的 Transformer,从而更好地满足具体推荐任务的需求。这一灵活性确保了 EasyRec 在推荐场景下的卓越表现。

在 EasyRec 中,我们将用户或商品的文本描述视为多个词汇组成的段落。在文本处理时,我们首先在词序列的开头插入一个特殊标记 [CLS]。分词层随后负责将输入文本编码为初始嵌入,并融入位置信息。这些嵌入接着传递给 Transformer 层进行深度编码。在这一阶段,自注意力机制起到了至关重要的作用,使每个词汇都能够从整个序列中获取信息,从而实现彻底的上下文理解。

最终,我们提取与 [CLS] 标记相对应的首个嵌入,作为用户资料的代表性表示。这个嵌入随后经过多层感知机的加工,形成最终的编码表示。通过这些步骤,我们成功生成了丰富上下文信息的用户和商品文本嵌入。利用余弦相似度,我们能够准确衡量用户与商品之间的交互可能性,为精准推荐奠定基础。

进一步的,EasyRec 采用了对比学习方法进行训练。这种训练方法使整个编码特征空间得到更全面的优化,从而提高推荐准确性。我们从用户与商品的交互数据中进行抽样,将曾有交互的用户与商品文本特征拉近,加强在特征空间的聚合。同时,未交互的用户或商品特征被作为负样本进行排斥,使得模型能够更清晰地辨别正负样本。

此外,为了提升模型的语义理解能力和泛化性能,我们还引入了文本掩码-重构损失机制。这一损失函数促使模型深入理解文本的语义内容,从而提高推荐的精准度和用户的满意度。

3.3 文本画像的多样性增强

a670a8d0b3b8657eab96440f2e752cef.png

为提升模型在面对未知用户和商品时的泛化能力,我们引入了一种多样化的画像增强策略。尽管传统上仅使用单一的文本画像来描述每位用户或商品显得简单明了,但这种方法限制了表示的多样性,对模型性能造成了负面影响,尤其在复杂的实际应用场景中尤为明显。

因此,我们开发了一种基于大语言模型的增强方法,通过精细化处理现有的用户和商品画像,使每个实体能够展现多样的交互偏好与特征。具体的,我们利用自我指导机制和大型语言模型(LLMs)的强大功能,在保留原始意义的前提下,对用户和商品的文本描述进行了重新阐述。这一策略使得我们得以从单一输入生成多个语义相近但表达迥异的画像,大幅提升了数据的多样性与表达的丰富性。

3.4 数据集

00133842d0dcc83284d571a599f906b3.png

我们使用了 Amazon Review Data 中的多样化类别数据构建了训练数据集和部分数据集。此外,为了更全面评估模型性能,我们还引入了 Steam 和 Yelp 数据集,作为跨平台的测试集,以检验模型在多样化应用场景中的泛化能力。

为了在零样本环境下对模型进行有效验证,我们确保训练集和测试集完全独立,避免任何用户或商品的重叠。这种划分方式有助于客观评估模型面对全新数据时的表现。如需更详细的信息,欢迎查阅相关论文和开源代码。

30710e830588ceb08fc2c97fe43f0399.png

实验验证

4.1 零样本文本推荐能力

9d5cd95608e4cf62b5ad3029b41730a8.png

84fc2b3f435aac2c83686c3a1462c6cb.png

在测试集(Sports、Steam 和 Yelp)上,我们采用全排序方法来评估模型在基于文本的零样本推荐能力。为了全面分析模型性能,我们选用了多种语言模型作为基准,其中包括通用语言模型(如 BERT 和 RoBERTa)、深度检索专用模型(如 SimCSE、GTR 和 BGE),以及与推荐系统相关的模型(如 BLaIR)。

此外,我们还对比了 OpenAI 的两款重要语言模型(v3-Small 和 v3-Large)的性能。实验结果表明,EasyRec 在零样本推荐能力上显著优于所有对比模型,能够有效地实现用户画像和商品画像之间的精确对齐,从而提供准确的推荐结果。

这一成功得益于我们创新的模型设计和训练方法,使 EasyRec 在全新数据集上表现出色。为了进一步验证模型的可扩展性,我们训练了三个不同规模的模型版本(从 Small 到Large),发现在模型规模增大时,性能稳步提升,体现出明显的 Scaling Laws 效应。

这一结果印证了我们在语言模型训练中,结合用户和商品交互偏好的文本画像及协同信号的实践路径是有效的。这种训练方法不仅提高了推荐的精准度,还为模型在不同规模和复杂度的数据集上的应用奠定了坚实基础。

4.2 基于文本增强协同过滤算法

b6cd925c64a2920de44a7db7e76a4040.png

为了研究不同语言模型对现有 ID-based 协同过滤算法的增强作用,我们选择了两个广泛使用的基准模型:GCCF和  LightGCN。同时,为了确保实验的一致性和公平性,我们采用了领先的文本增强框架 RLMRec 作为统一增强框架。

通过实验,我们观察到 EasyRec 在性能上明显优于这两个基准模型。这一提升的关键在于 EasyRec 能够有效地将文本中的协同信息编码为文本特征。这种编码不仅丰富了特征的内涵,还为后续的文本增强框架提供了高质量、含有丰富协同信息的特征。因此,当这些特征被用于推荐时,模型的推荐性能得到了显著改善。

4.3 捕获用户动态偏好

45dce24da53019be225914465b14502f.png

在之前的讨论中,我们指出 EasyRec 的一大突出优势是其能够快速捕捉并适应用户随时间变化的个人偏好和行为模式。为量化这一适应能力,我们选择了 Amazon 体育用品数据集,构建了两组模拟用户画像,清晰展示了用户兴趣从篮球活动转向游泳的过程。

接着,我们利用 t-SNE 对这些用户和商品的文本向量进行了可视化分析,结果显示,用户的表示在特征维度空间中随着兴趣变化而发生了显著重构。这一变化直接反映在推荐内容的更新上,原本集中于篮球装备的推荐列表,转而精准推送游泳用品,符合用户的新偏好。

值得强调的是,这一动态调整仅依赖于对用户画像的改变,底层推荐模型未经过任何额外训练步骤。这充分体现了该模型在灵活适应用户偏好变动方面的高效性与优越性能。

6dd36e94464b492d4a8862d0bf3a22f7.png

结语

本文介绍了语言模型 EasyRec,它结合了先进的语言模型和对比学习技术,为用户行为分析和个性化推荐提供了强有力的支持。EasyRec 能够敏锐捕捉用户兴趣和行为的微妙变化,并能够迅速响应并调整推荐内容,无论变化大小。在文本推荐的场景中,EasyRec 展现出了独特的优势,能够为用户提供精准的、符合潜在兴趣的推荐。此外,通过增强协同过滤技术,EasyRec 进一步提升了推荐的多样性和准确性,为用户带来了更加丰富和个性化的浏览与购物体验。

🌟本文内容已获论文原作者独家授权发布,如需转载请联系PaperWeekly工作人员微信:pwbot02,添加时请备注「转载」。

更多阅读

21a80bed41c2732e292222e013d73eeb.png

f2939495b43794685e3479efa4965bf6.png

0fd5f5cf467f0cf5eaafd93f6220a4b2.png

0dc5cb2bab0ae077d3fe6d946f341ec0.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

d3537a84ce5a4fb513ae01de7762d74f.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

d54c568e1f7bab749399ef7080117d39.jpeg

  • 7
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
easyrec是一个用于推荐系统开源软件,它提供了一个排序模型部署的功能。下面将以300字回答easyrec排序模型部署的相关内容。 首先,为了部署easyrec的排序模型,我们需要准备一些必要的软件和设备。我们需要一台可供部署的服务器和操作系统,例如Linux系统。此外,我们还需要安装和配置Java开发环境,以及与easyrec兼容的数据库,如MySQL。 接下来,我们需要下载和安装easyrec的排序模型easyrec提供了官方的二进制发行版和源代码版本,我们可以根据自己的需求选择合适的版本进行安装。安装完成后,我们需要配置easyrec的相关参数,如数据库连接信息和推荐策略等。 一次配置完成,我们可以启动easyrec的排序模型服务。在启动服务之前,我们还需要加载和训练我们的模型easyrec提供了一个管理控制台,我们可以通过它来管理和训练模型。通过命令行或配置文件,我们可以指定要加载的模型和训练的数据集。一旦加载和训练完成,我们可以启动排序模型服务,提供推荐功能。 在排序模型部署完成后,我们可以通过接口或SDK来进行推荐请求。我们可以根据用户的行为和偏好,向他们提供个性化的推荐结果。通过easyrec的接口和SDK,我们可以获取推荐结果并将其展示到我们的应用程序中,从而提升用户体验和增加用户参与度。 总而言之,easyrec的排序模型部署需要准备服务器和操作系统,下载和安装easyrec的排序模型,配置参数和训练模型,然后启动排序模型服务,最后通过接口或SDK进行推荐请求。通过这些步骤,我们可以成功部署easyrec的排序模型,并为我们的应用程序提供个性化的推荐功能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值