Large Language Model Augmented Narrative DrivenRecommendations 论文阅读

摘要

叙事驱动推荐(Narrative-driven recommendations,NDR)提出了一种信息访问问题,即用户通过详细描述其偏好和上下文来请求推荐,例如,旅行者在请求推荐兴趣点的同时描述其喜欢/不喜欢和旅行情况。

经典的用户-项目交互数据集包含丰富的文本数据,例如,评论,通常描述用户偏好和上下文-这可以用于引导NDR模型的训练。

在这项工作中,我们探索使用大型语言模型(LLM)进行数据增强来训练NDR模型。我们使用LLM从用户-项目交互中创作合成叙事查询,并在合成查询和用户-项目交互数据上训练NDR检索模型。

介绍

文章中用175B-GPT3作为基本模型,根据𝐷𝑢编写一个合成的叙述性查询 q𝑢 (下图),quary是存在噪声且不能代表全体用户的,所以只在全部的交互信息中保留了一部分。基于 LM 的预训练检索模型(110M参数)进行微调,以便对合成查询和过滤后的评论进行检索。

在Mint中使用的提示格式,用于通过大型语言模型的用户-项目交互生成合成叙述查询。

作者这里提出一个问题,就是听起来评论这类的数据很多、但是和实际的user-items交互的数量相比较还是少了很多的。

实验部分

下游任务:对于一个叙述性推荐任务,在已有的数据集上给出一个排名

先是把协同的交互数据与评论数据 ,通过GPT生成一个长文本,然后将这个长文本和评论数据打包再喂给一个检索模型。

1.其中将交互类文本作为prompt给GPT

2.过滤阶段,保留部分1得到的数据,将1中得到的query,用了一个3B的模型对于查询可能性给分,得分高的查询才能保留。

3.Training Retrieval Models

在生成的合成数据集上训练用于NDR的双编码器和交叉编码器模型(bi-encoder and cross-
encoder models)-搜索任务中常用的模型。这里用的是两个类似bert的110M模型训练

个人思考

这个工作最有特点的部分是将CF中的信息引入到了推荐中,但是最后的输出是用的一个检索的模型,不是特别理解,但是本质还是向量相似度之类的东西,使用的Yelp数据集去做一个信息的提取与交互数据的学习

缺点:目前没有代码,只用了三个模版去匹配大部分文本,缺少了很多的本身的信息

重要参考文献

Toine Bogers and Marijn Koolen. 2017. Defining and Supporting Narrative-Driven
Recommendation.(叙述性推荐的定义文章
Jafar Afzali, Aleksander Mark Drzewiecki, and Krisztian Balog. 2021. POINTREC:
A Test Collection for Narrative-Driven Point of Interest Recommendation.(数据集Pointrec)
Lukas Eberhard, Simon Walk, Lisa Posch, and Denis Helic. 2019. Evaluating
Narrative-Driven Movie Recommendations on Reddit.
Jiajing Xu, Andrew Zhai, and Charles Rosenberg. 2022. Rethinking Personalized
Ranking at Pinterest: An End-to-End
Language Models are Few-Shot Learners .2020
Training language models to follow instructions with human feedback
Negar Hariri, Bamshad Mobasher, and Robin Burke. 2013. Query-Driven Context
Aware Recommendation. (查询驱动推荐的鼻祖?)
数据增强相关  、少量数据or冷启动场景的文章
Lei Chen, Le Wu, Kun Zhang, Richang Hong, Defu Lian, Zhiqiang Zhang, Jun
Zhou, and Meng Wang. 2023. Improving Recommendation Fairness via Data
Augmentation (这玩意是提升公平性的,不确定实际上是不是无)
Yuxin Ying, Fuzhen Zhuang, Yongchun Zhu, Deqing Wang, and Hongwei Zheng.
2023. CAMUS: Attribute-Aware Counterfactual Augmentation for Minority Users
in Recommendation. (反事实增强)
Dong-Kyu Chae, Jihoo Kim, Duen Horng Chau, and Sang-Wook Kim. 2020. AR
CF: Augmenting Virtual Users and Items in Collaborative Filtering for Addressing
Cold-Start Problems (增加虚拟用户增强数据CF框架下)
Federico López, Martin Scholz, Jessica Yung, Marie Pellat, Michael Strube, and
Lucas Dixon. 2021. Augmenting the user-item graph with textual similarity
models.(文本相似度增强)
Qinyong Wang, Hongzhi Yin, Hao Wang, Quoc Viet Hung Nguyen, Zi Huang,
and Lizhen Cui. 2019. Enhancing Collaborative Filtering with Generative Aug
mentation.(生成增强协同过滤)
  • 56
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值