Recommendation
文章平均质量分 64
该专栏整理了推荐系统相关的论文,包括传统推荐领域的经典问题,以及在LLM背景下,推荐系统的最新发展。专栏中部分文章为完整翻译,大多是摘要和结论的翻译,后续会完善所有内容翻译,订阅请注意!!!
UnknownBody
AI博士,最近一直follow大模型相关论文,每日会更新学术界论文的进展。
展开
-
A Neural Matrix Decomposition Recommender System Model based on the Multimodal Large Language Model
推荐系统已成为信息搜索问题的重要解决方案。本文提出了一种基于多模态大语言模型的神经矩阵分解推荐系统模型,称为BoNMF。该模型结合了BoBERTa在自然语言处理方面的强大能力、视觉计算机中的ViT和神经矩阵分解技术。通过捕捉用户和项目的潜在特征,并在与由用户和项目ID组成的低维矩阵交互后,神经网络输出结果。推荐。冷启动和消融实验结果表明,BoNMF模型在大型公共数据集上表现出色,显著提高了推荐的准确性。原创 2024-10-02 09:15:00 · 44 阅读 · 0 评论 -
Large Language Models meet Collaborative Filtering
协同过滤推荐系统(CF RecSys)在增强社交媒体和电子商务平台上的用户体验方面取得了连续的成果。然而,由于CF RecSys在用户-项目交互稀疏的冷场景下苦苦挣扎,最近的策略侧重于基于预训练的模态编码器和大型语言模型(LLM)利用用户/项目的模态信息(例如文本或图像)。尽管它们在冷启动场景下有效,但我们观察到,由于缺乏协作知识,它们在温暖场景下的表现不如简单的传统协作过滤模型。原创 2024-08-02 19:30:57 · 254 阅读 · 0 评论 -
Large Language Models as Evaluators for Recommendation Explanations
推荐系统的可解释性已经引起了学术界和工业界的极大关注。已经为可解释的建议做出了许多努力,但评估解释的质量仍然是一个具有挑战性且尚未解决的问题。近年来,利用LLM作为评估者在自然语言处理任务(如情感分类、信息提取)中提供了一条很有前途的途径,因为它们在指令遵循和常识推理方面具有强大的能力。然而,评估推荐解释性文本与这些NLG任务不同,因为其标准与人类感知有关,通常是主观的。在本文中,我们研究LLM是否可以作为推荐解释的评估者。原创 2024-07-08 15:38:16 · 39 阅读 · 0 评论 -
Large Language Models Make Sample-Efficient Recommender Systems
大型语言模型(LLM)在自然语言处理(NLP)领域取得了显著进展,在为各种任务生成类似人类语言的文本方面表现出了非凡的能力。这为在推荐系统(RS)中使用它们开辟了新的机会。在本文中,我们专门研究了LLM增强推荐系统的样本效率,它与模型在有限的训练数据量下获得卓越性能的能力有关。由于特征和交互的稀疏性,传统的推荐模型通常需要大量的训练数据。因此,我们提出并验证了我们的核心观点:大型语言模型使样本高效推荐系统。原创 2024-07-08 14:42:11 · 44 阅读 · 0 评论 -
Towards Efficient and Effective Unlearning of Large Language Models for Recommendation
大型语言模型(LLM)的显著进步带来了一个很有前途的研究方向,即利用LLM作为推荐器(LLMRec)。LLMRec的功效源于LLM固有的开放世界知识和推理能力。LLMRec通过基于用户交互数据的指令调优来获得推荐能力。然而,为了保护用户隐私和优化效用,LLMRec故意忘记特定的用户数据也是至关重要的,这通常被称为建议遗忘。在LLM时代,建议遗忘给LLMRec带来了低效率和无效性方面的新挑战。现有的遗忘方法需要更新LLMRec中的数十亿个参数,这既昂贵又耗时。此外,在遗忘过程中,它们总是影响模型的实用性。原创 2024-07-02 20:44:57 · 74 阅读 · 0 评论 -
Aligning Large Language Models for Controllable Recommendations
受大型语言模型(LLM)非凡的通用智能的启发,研究人员已经开始探索其在开创下一代推荐系统中的应用——这些系统是对话的、可解释的和可控的。然而,现有文献主要集中在将特定领域的知识集成到LLM中以提高准确性,而往往忽视了遵循指令的能力。为了解决这一差距,我们最初引入了一组监督学习任务,并添加了来自传统推荐模型的标签,旨在明确提高LLM遵守推荐特定指令的熟练程度。随后,我们开发了一个基于强化学习的对齐程序,以进一步加强LLM在响应用户意图和减少格式错误方面的能力。原创 2024-07-02 09:11:50 · 221 阅读 · 0 评论 -
Large Language Models as Conversational Movie Recommenders: A User Study
本文探讨了使用大型语言模型(LLM)从用户那里进行个性化电影推荐的有效性在线实地实验中的观点。我们的研究结合了受试者之间的即时消费评估和历史消费评估,以及受试者内部推荐情景评估。通过检查160名活跃用户的对话和调查响应数据,我们发现LLM提供了很强的推荐解释性,但缺乏整体个性化、多样性和用户信任。我们的研究结果还表明,不同的个性化提示技术不会显著影响用户感知的推荐质量,但用户观看的电影数量起着更重要的作用。此外,LLM在推荐鲜为人知或小众电影方面表现出更强的能力。原创 2024-07-01 15:43:42 · 51 阅读 · 0 评论 -
InteraRec: Screenshot Based Recommendations Using Multimodal Large Language Models
网络日志由详细描述用户在任何网站上的活动的记录组成,提供了对用户偏好、行为和兴趣的宝贵见解。许多推荐算法采用协作过滤、基于内容的过滤和混合方法等策略,利用通过这些博客挖掘的数据向用户提供个性化推荐。尽管这些博客中有丰富的信息,但从中识别和提取相关信息和关键特征需要进行广泛的工程工作。数据的复杂性也对解释提出了挑战,尤其是对非专家来说。在这项研究中,我们引入了一个复杂的交互式推荐框架,称为InteraRec,它与完全依赖博客生成推荐的传统方法不同。InteraRec框架在用户浏览网站时捕捉网页的高频屏幕截图。原创 2024-07-01 14:29:38 · 33 阅读 · 0 评论 -
A Large Language Model Enhanced Sequential Recommender for Joint Video and Comment Recommendation
在在线视频平台中,阅读或撰写有趣视频的评论已成为视频观看体验的重要组成部分。然而,现有的视频推荐系统主要对用户与视频的互动行为进行建模,在用户行为建模中缺乏对评论的考虑。在本文中,我们提出了一种新的推荐方法,称为LSVCR,通过利用用户与视频和评论的互动历史,共同进行个性化的视频和评论推荐。具体来说,我们的方法由两个关键组件组成,即顺序推荐(SR)模型和补充大语言模型(LLM)推荐器。SR模型作为我们方法的主要推荐骨干(保留在部署中),允许进行高效的用户偏好建模。原创 2024-06-28 11:00:20 · 51 阅读 · 0 评论 -
CoRAL: Collaborative Retrieval-Augmented Large Language Models Improve Long-tail Recommendation
由于数据稀疏和数据不平衡的问题,长尾推荐对传统的推荐系统来说是一项具有挑战性的任务。最近开发的大型语言模型(LLM)显示了它们在复杂推理方面的能力,这有助于根据很少的先前交互推断用户的偏好。然而,由于大多数基于LLM的系统依赖于项目的语义作为推理的唯一证据,因此忽略了用户-项目交互的协作信息,这可能导致LLM的推理与数据集的特定任务协作信息不一致。为了进一步使LLM的推理与特定任务的用户-项目交互知识相一致,我们引入了协作检索增强LLM,即CoRAL,它直接将协作证据纳入提示中。原创 2024-06-27 14:39:47 · 120 阅读 · 0 评论 -
Re2LLM: Reflective Reinforcement Large Language Model for Session-based Recommendation
大型语言模型(LLM)正在成为增强基于会话的推荐(SBR)的有前途的方法,其中基于提示和基于微调的方法都已被广泛研究,以使LLM与SBR保持一致。然而,由于缺乏特定任务的反馈,前一种方法难以获得最佳提示来引出LLM的正确推理,导致推荐不令人满意。尽管后一种方法试图利用特定领域的知识对LLM进行微调,但它们面临着计算成本高和依赖开源主干网等限制。为了解决这些问题,我们提出了一个用于SBR的反射强化大语言模型(Re2LLM),指导LLM专注于更准确、更高效的建议所必需的专业知识。原创 2024-06-26 14:26:47 · 44 阅读 · 0 评论 -
Emerging Synergies Between Large Language Models and Machine Learning in Ecommerce Recommendations
随着电子商务和网络应用程序的蓬勃发展,推荐系统已经成为我们日常生活的重要组成部分,根据用户的喜好提供个性化推荐。尽管深度神经网络(DNN)通过模拟用户和项目之间的交互并结合其文本信息,在改进推荐系统方面取得了重大进展,但这些基于DNN的方法仍然存在一些局限性,例如难以有效理解用户的兴趣和捕获文本信息。不可能概括到不同的可见/不可见推荐场景及其预测的原因。原创 2024-06-22 11:25:01 · 140 阅读 · 0 评论 -
Large Language Models are Learnable Planners for Long-Term Recommendation
在建议中,对眼前和长期利益进行规划变得越来越重要。现有的方法通过最大化长期推荐的累积奖励来应用强化学习(RL)来学习规划能力。然而,当从头开始训练RL模型时,推荐数据的稀缺性带来了挑战,如不稳定性和过拟合的易感性,导致性能次优。有鉴于此,我们建议利用大型语言模型(LLM)在稀疏数据上的卓越规划能力进行长期推荐。实现这一目标的关键在于制定一项指导计划,遵循加强长期参与的原则,并以个性化的方式将该计划建立在有效和可执行的行动基础上。原创 2024-06-18 17:08:16 · 111 阅读 · 0 评论 -
TRAWL: External Knowledge-Enhanced Recommendation with LLM Assistance
将语义信息与行为数据相结合是推荐系统中的一个重要研究领域。一种很有前途的方法是利用外部知识来丰富具有丰富语义信息的基于行为的推荐系统。然而,这种方法面临两个主要挑战:对原始外部知识进行去噪和调整语义表示。为了应对这些挑战,我们提出了一种具有LLM辅助的外部知识增强推荐方法(TRAWL)。该方法利用大型语言模型(LLM)从原始外部数据中提取相关的推荐知识,并采用对比学习策略进行适配器训练。在公共数据集和真实世界的在线推荐系统上的实验验证了我们方法的有效性。原创 2024-06-18 10:45:56 · 155 阅读 · 0 评论 -
Evaluating Large Language Models as Generative User Simulators for Conversational Recommendation
在会话推荐系统的评估中,合成用户是真实用户的具有成本效益的代理。大型语言模型在模拟类人行为方面表现出了希望,这就提出了它们代表不同用户群体的能力问题。我们引入了一种新的协议来衡量语言模型在会话推荐中准确模仿人类行为的程度。该协议由五个任务组成,每个任务都旨在评估合成用户应该表现出的关键特性:选择要谈论的项目、表达二元偏好、表达开放式偏好、请求推荐和提供反馈。通过对基线模拟器的评估,我们证明了这些任务有效地揭示了语言模型与人类行为的偏差,并就如何通过模型选择和提示策略来减少偏差提供了见解。原创 2024-05-28 16:46:42 · 51 阅读 · 0 评论 -
Stealthy Attack on Large Language Model based Recommendation
最近,强大的大型语言模型(LLM)在推动推荐系统(RS)的发展方面发挥了重要作用。然而,尽管这些系统蓬勃发展,但它们对安全威胁的易感性在很大程度上被忽视了。在这项工作中,我们揭示了将LLM引入推荐模型会带来新的安全漏洞,因为它们强调项目的文本内容。我们证明,攻击者只需在测试阶段更改项目的文本内容,就可以显著提高项目的曝光率,而不需要直接干扰模型的训练过程。此外,这种攻击非常隐蔽,因为它不会影响整体推荐性能,而且对文本的修改很微妙,用户和平台很难检测到。原创 2024-05-03 11:33:00 · 126 阅读 · 0 评论 -
Uncertainty-Aware Explainable Recommendation with Large Language Models
在推荐系统内提供解释将提高用户满意度并促进信任,特别是通过详细说明选择适合用户的推荐项目的原因。该领域的主要方法围绕着生成基于文本的解释,特别强调应用大型语言模型(LLM)。然而,由于时间限制和计算资源限制,为可解释的建议改进LLM被证明是不切实际的。作为一种替代方案,当前的方法包括训练提示而不是LLM。在这项研究中,我们开发了一个模型,该模型利用用户和项目输入的ID向量作为GPT-2的提示。我们在多任务学习框架内采用了联合训练机制来优化推荐任务和解释任务。原创 2024-04-08 17:46:20 · 114 阅读 · 0 评论 -
A Lightweight and Effective Framework for Integrating Large Language Models in Session-based
传统的基于会话的推荐(SBR)利用来自匿名用户的会话行为序列进行推荐。尽管这种策略非常高效,但它牺牲了项目固有的语义信息,使模型难以理解会话的真实意图,并导致推荐结果缺乏可解释性。最近,大型语言模型(LLM)在各个领域蓬勃发展,为解决上述挑战提供了一线希望。受LLM影响的启发,探索LLM与推荐系统(RS)集成的研究像雨后的蘑菇一样激增。然而,受高时间和空间成本以及会话数据的简短和匿名性质的限制,第一个适合工业部署的LLM建议框架尚未在SBR领域出现。原创 2024-04-05 14:55:09 · 63 阅读 · 0 评论 -
Large Language Model with Graph Convolution for Recommendation
近年来,人们努力在推荐中使用文本信息来更好地进行用户简介和项目特征描述。然而,文本信息有时质量很低,阻碍了其在现实应用中的有效性。随着知识和推理能力被大型语言模型(LLM)所覆盖,利用LLM成为一种很有前途的描述改进方法。然而,现有的用原始文本提示LLM的方法忽略了用户-项目交互的结构化知识,这可能会导致幻觉问题,如不一致的描述生成。为此,我们提出了一种图感知卷积LLM方法,以引出LLM来捕获用户项目图中的高阶关系。原创 2024-04-01 10:15:09 · 110 阅读 · 0 评论 -
Utilizing Large Language Models for Industrial Recommendation Systems through an Inferential KG
推荐系统广泛应用于电子商务网站和在线平台,以解决信息过载问题。然而,现有的系统主要依赖于历史数据和用户反馈,这使得很难捕捉用户意图的转变。最近,有人提出了基于知识库的模型来整合专家知识,但它很难适应新的项目和不断发展的电子商务环境。为了应对这些挑战,我们提出了一种新的基于大型语言模型的补充知识增强推荐系统(LLM-KERec)。它引入了一个实体提取器,从项目和用户信息中提取统一的概念术语。为了提供具有成本效益和可靠的先验知识,基于实体流行度和特定策略生成实体对。原创 2024-03-26 14:35:36 · 75 阅读 · 0 评论 -
Integrating Large Language Models with Graphical Session-Based Recommendation
随着大型语言模型(LLM)的快速发展,在推荐系统中利用LLM的上下文理解能力进行了各种探索。虽然开创性的策略主要将传统的推荐任务转化为自然语言生成的挑战,但由于其特殊性,在基于会话的推荐(SBR)领域的探索相对较少。城市SBR主要由图神经网络主导,由于其能够捕捉相邻行为之间的隐式和显式关系,图神经网络已经取得了许多成功。图形的结构性质与自然语言的本质形成对比,对应LLM构成了一个重要的适应差距。原创 2024-03-25 10:44:07 · 137 阅读 · 0 评论 -
Exploring the Impact of Large Language Models on Recommender Systems: An Extensive Review
本文强调了大型语言模型(LLM)在重塑推荐系统方面的重要性,并将其价值归因于传统推荐系统所缺乏的独特推理能力。与缺乏直接用户交互数据的传统系统不同,LLM在推荐项目方面表现出非凡的熟练度,展示了他们理解复杂语言的能力。这标志着推荐领域发生了根本性的范式转变。在动态的研究环境中,研究人员积极利用LLM的语言理解和生成能力来重新定义推荐任务的基础。该调查深入探讨了LLM在建议框架内的内在优势,包括细致入微的上下文理解、跨不同领域的无缝过渡、采用统一的方法、利用共享数据库的整体学习策略、透明的决策和迭代改进。原创 2024-03-18 15:09:56 · 249 阅读 · 0 评论 -
Toward Patent Response Automation with Recommender Systems and Collaborative Large Language Models
在专利起诉中,及时有效地回应专利局的行动对保护专利至关重要。然而,过去的自动化和人工智能研究在很大程度上忽略了这一方面。为了弥补这一差距,我们的研究引入了专利局行动响应智能系统(PARIS)及其高级版本,即大型语言模型(LLM)增强型PARIS(LE-PARIS)。这些系统旨在通过与人工智能的合作,提高专利律师处理OA响应的效率主要功能包括构建OA主题数据库、开发响应模板、实现推荐系统和基于LLM的响应生成。原创 2024-03-07 09:57:44 · 51 阅读 · 0 评论 -
Empowering Few-Shot Recommender Systems with Large Language Models-Enhanced Representations
在过去的几年里,利用显式反馈的推荐系统已经取得了显著的进步和广泛的应用。然而,在小样本场景中生成推荐仍然是一个持续的挑战。最近,大型语言模型(LLM)已成为解决自然语言处理(NLP)任务的一种很有前途的解决方案,从而为解决基于显式反馈的推荐系统所遇到的小样本场景提供了新的见解。为了连接推荐系统和LLM,我们设计了一个提示模板,根据明确的反馈生成用户和项目表示。随后,我们将这些LLM处理的表示集成到各种推荐模型中,以评估它们在不同推荐任务中的重要性。原创 2024-01-23 11:39:31 · 641 阅读 · 0 评论 -
A Survey on Large Language Models for Personalized and Explainable Recommendations
近年来,随着大型语言模型(LLM)在自然语言处理(NLP)领域的出现,推荐系统(RS)发生了变革。这些模型,如OpenAI的GPT-3.5/4、Meta的Llama,在理解和生成类人文本方面表现出了前所未有的能力。这导致了个性化和可解释推荐领域的范式转变,因为LLM提供了一个多功能的工具集,用于处理大量文本数据,以增强用户体验。为了全面了解现有的基于LLM的推荐系统,本调查旨在分析RS如何从基于LLM方法中受益。原创 2024-01-10 10:45:35 · 626 阅读 · 0 评论 -
Large Language Model Augmented Narrative Driven Recommendations
叙述驱动推荐(NDR)提出了一个信息访问问题,用户通过详细描述自己的偏好和背景来征求推荐,例如,旅行者在描述自己的好恶和旅行环境的同时,征求兴趣点的推荐。随着搜索和推荐系统中基于自然语言的会话接口的兴起,这些要求变得越来越重要。然而,NDR缺乏丰富的模型训练数据,当前的平台通常不支持这些请求。幸运的是,经典的用户-项目交互数据集包含丰富的文本数据,例如评论,这些数据通常描述用户偏好和上下文——这可以用于NDR模型的引导训练。在这项工作中,我们探索使用大型语言模型(LLM)进行数据扩充来训练NDR模型。原创 2023-12-04 10:54:05 · 170 阅读 · 0 评论 -
Recommender Systems in the Era of Large Language Models (LLMs)
随着电子商务和网络应用程序的繁荣,推荐系统(RecSys)已成为我们日常生活中的一个重要组成部分,提供符合用户偏好的个性化建议。尽管深度神经网络(DNN)通过建模用户-项目交互并结合其文本辅助信息,在增强推荐系统方面取得了重大进展,但这些基于DNN的方法仍然存在一些局限性,例如难以有效理解用户的兴趣和捕获文本辅助信息,在推广到各种可见/不可见的推荐场景以及对其预测进行推理方面的能力不足等。原创 2023-09-15 09:48:41 · 841 阅读 · 0 评论
分享