内容推荐算法:异构行为序列建模探索,javaio流面试题

本文介绍了In_Match模型,一种用于兴趣迁移的匹配模型,旨在解决电商和内容领域的兴趣差异问题。通过序列建模、注意力机制和多模态特征学习,模型提升了推荐系统的精准度,尤其是在捕捉用户意图和兴趣演化方面。实验结果显示,该模型在点击率和内容多样性上取得了显著提升。
摘要由CSDN通过智能技术生成

前文提到内容兴趣不够用,我们首先基于i2i尝试了商品与内容的混合协同,取得了一定的收益。然后基于电商兴趣的标题作相关内容的严格相似召回,却收益为负,这说明跨域的兴趣不可生搬硬套,也与前文的兴趣差异统计相吻合。

所以一个能胜任的召回模型,应满足以下期望:

  • {电商,内容}两个domain的历史行为都能用上;

  • 交互序列是刻画用户精确意图的关键, 要能对序列建模而非孤立的交互单元;

  • 既然两个domain兴趣差异存在, 就要能学到 电商兴趣到内容兴趣 的迁移规律。

基于以上理念, 我们设计了兴趣迁移 Interest Transfer Matching Model  (In_Match for short),取得了以下显著收益(业务指标为内部数据,此处只列ab实验的相对提升)

  • 推荐综合指标上,人均点击提升+11.17%,pv_ctr提升+12.16%;

  • 大幅缓解推荐过于集中的状况,top内容的曝光占比下降25%;

  • 该路向量召回大幅超越content-based feature对应的几路召回,甚至高于内容协同召回。


 模型架构及主要贡献


图1-1.In_Match 的模型架构

图1-2.encoder-decoder 内部细节示例

主要贡献有:

  • multi modality

    • 考虑到稀疏性,引入多模态性能提升+5%
  • semantic projection

    • 填补 商品/内容 语义空间上的gap
  • 基于decoder来学习[整个session]点击

    • 学习session点击,相较next one ,SDM有对比收益
  • decoder架构更适

  • 10
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值