COBRA详解

部署运行你感兴趣的模型镜像

这是一篇生成式推荐用于召回场景的工作,其建模范式仍旧是输入端根据用户行为序列构造prompt,输出端预测next item。该工作巧妙地将稀疏ID与稠密向量表征级联融合起来,达到了SOTA水平。

传统方法对比

方案类型核心技术局限性
纯文本+LLM直接使用广告文本特征输入过长,资源消耗大
短语表征关键词压缩表达信息丢失严重
稠密表征+对比学习端到端向量编码建模复杂度高,缺少兴趣探索
稀疏ID生成RQ-VAE量化技术信息损失导致细粒度捕捉弱

COBRA介绍

稀疏ID可以唯一表示item,有很好的区分性,但丧失了对item的细粒度信息刻画。纯文本可以准确可以item属性,但构造成prompt太长,套入到LLM中会导致资源消耗过大。那么如何结合两者的优点呢?

COBRA首先根据codebook生成item的稀疏ID,该ID可以理解为item的大类别。既不过于精细,像unique id,又不过于宽泛。然后将ID序列输入到Transformer Decoder中预测稠密向量。

model

离线训练

两个预测任务的损失函数如下:
L sparse  = − ∑ t = 1 T − 1 log ⁡ ( exp ⁡ ( z t + 1 I D t + 1 ) ∑ j = 1 C exp ⁡ ( z t + 1 j ) ) L dense  = − ∑ t = 1 T − 1 log ⁡ exp ⁡ ( cos ⁡ ( v ^ t + 1 ⋅ v t + 1 ) ) ∑ item  j ∈  Batch  exp ⁡ ( cos ⁡ ( v ^ t + 1 , v item  j ) ) \mathcal{L}_{\text {sparse }}=-\sum_{t=1}^{T-1} \log \left(\frac{\exp \left(z_{t+1}^{I D_{t+1}}\right)}{\sum_{j=1}^C \exp \left(z_{t+1}^j\right)}\right) \\ \left.\left.\mathcal{L}_{\text {dense }}=-\sum_{t=1}^{T-1} \log \frac{\exp \left(\cos \left(\hat{\mathbf{v}}_{t+1} \cdot \mathbf{v}_{t+1}\right)\right)}{\sum_{\text {item }_j \in \text { Batch }} \exp \left(\operatorname { c o s } \left(\hat{\mathbf{v}}_{t+1}, \mathbf{v}_{\text {item }}^j\right.\right.} \mathbf{}\right)\right) Lsparse =t=1T1log j=1Cexp(zt+1j)exp(zt+1IDt+1) Ldense =t=1T1logitem j Batch exp(cos(v^t+1,vitem jexp(cos(v^t+1vt+1))

ID预测就是经典的多分类任务,dense vector就是经典的对比学习任务。

在线推理
  1. 稀疏ID生成:decoder根据beam search生成top M M M个ID,每个ID有其得分
    id

  2. 稠密向量生成:根据每个稀疏ID继续生成dense vector,然后检索出同一个ID下的跟vector相似的top N N N个候选item
    vector

  3. 最终召回候选集生成:为了兼顾多样性(即不同ID)以及准确性(即同一ID下的候选item),联合打分取top K K K个item召回
    recall

在离线实验结果

offline

在公共数据集上,离线指标提升很明显。在A/B实验上,转化率和收入也在咔咔涨,就不细说了。


参考

您可能感兴趣的与本文相关的镜像

Seed-Coder-8B-Base

Seed-Coder-8B-Base

文本生成
Seed-Coder

Seed-Coder是一个功能强大、透明、参数高效的 8B 级开源代码模型系列,包括基础变体、指导变体和推理变体,由字节团队开源

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值