本文是LLM系列文章,针对《Re2LLM: Reflective Reinforcement Large Language Model for Session-based Recommendation》的翻译。
摘要
大型语言模型(LLM)正在成为增强基于会话的推荐(SBR)的有前途的方法,其中基于提示和基于微调的方法都已被广泛研究,以使LLM与SBR保持一致。然而,由于缺乏特定任务的反馈,前一种方法难以获得最佳提示来引出LLM的正确推理,导致推荐不令人满意。尽管后一种方法试图利用特定领域的知识对LLM进行微调,但它们面临着计算成本高和依赖开源主干网等限制。为了解决这些问题,我们提出了一个用于SBR的反射强化大语言模型(Re2LLM),指导LLM专注于更准确、更高效的建议所必需的专业知识。特别是,我们首先设计了反思探索模块,以有效地提取LLM易于理解和消化的知识。具体来说,我们指导LLM通过自我反思来检查推荐错误,并构建一个知识库(KB),其中包括能够纠正这些错误的提示。为了有效地引出LLM的正确推理,我们进一步设计了强化利用模块来训练轻量级检索代理。它学习根据特定任务的反馈从构建的知识库中选择提示,这些提示可以作为指导,帮助纠正LLM推理,获得更好的建议。在多个真实世界数据集上进行的大量实验表明,