![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
推荐算法-曝光度偏差
文章平均质量分 90
堇禤
这个作者很懒,什么都没留下…
展开
-
【选择偏差】IPS方法——Recommendations as Treatments: Debiasing Learning
本文提出了逆倾向分数(Inverse Propensity Score, IPS),旨在消除推荐系统中的选择偏差问题。注意:IPS方法是一个损失函数,用于后期对模型进行修正的方法。原创 2022-11-14 10:35:25 · 973 阅读 · 1 评论 -
【图对比学习 难样本挖掘】ICML‘22 ProGCL: Rethinking Hard Negative Mining in Graph Contrastive L
本篇文章作者发现现有的其他领域的难负样本挖掘技术并不能很好地提高图对比学习的表现,并对这一现象进行深入探究,发现可以归因于图神经网络的信息传递机制。此外作者提出了一种挖掘图网络中的难样本对的方法。此方法原则上可以替换任何一个图对比学习中计算难样本对的模块,实验表明,此方法有着更为显著的效能提升。原创 2022-11-07 15:25:31 · 673 阅读 · 0 评论 -
【曝光偏差】UKD: Debiasing Conversion Rate Estimation via Uncertainty-regularized
UKD:通过不确定性正则化知识蒸馏的去偏转化率(CVR)估计。本文采用对抗学习方法,提出了一种不确定性正则化知识蒸馏 (UKD) 框架:通过从未点击的广告中提取知识来消除 CVR 估计的偏差。教师模型学习点击自适应表征,并在未点击的广告上生成伪转换标签作为监督信号。然后通过知识蒸馏对已点击和未点击的广告训练学生模型,进行不确定性建模以减轻伪标签中的固有噪声。原创 2022-11-03 15:18:37 · 350 阅读 · 0 评论 -
【曝光偏差】WWW 2021Unbiased Sequential Recommendation with Latent Confounders
由于存在曝光偏差,观测数据可能受到曝光和选择的偏差,这使得学习的序列模型不可靠。为了解决这一基本问题,本文提出用潜在结果框架重新表述序列化推荐任务,在这个框架中,我们能够清楚地理解数据偏差机制,并通过使用反向倾向评分(IPS)重新加权训练实例来纠正它。为了提高建模的鲁棒性,在IPS估计中采用了裁剪策略,以减小学习目标的方差。为了使框架更加实用,设计了一个参数化模型来消除潜在的混杂因子的影响。最后,从理论上分析了该框架在IPS权重下和裁剪IPS权重下模型估计的无偏性。原创 2022-11-02 15:27:27 · 316 阅读 · 0 评论 -
【曝光偏差】MCL: Mixed-Centric Loss for Collaborative Filtering
本文提出的MCL方法解决了上述问题。MCL方法是在用其他方法(如:CML、LightGCN、NeuMF等)得到网络中各节点的表示向量后,在进行迭代求解每个节点的向量表示的最优值时,首先挖掘并标记出富含信息的难(正负)样本对,然后为难样本分配更多的权重。加权过程由四个不同的组件组成,并结合了来自其他用户的距离信息,使模型能够更好地学习的表征。原创 2022-03-16 17:42:04 · 766 阅读 · 0 评论 -
【曝光偏差、对比学习、无偏推荐】 Cross Pairwise Ranking for Unbiased Item Recommendation
本文提出了一种新的学习范式(Loss 损失函数),称为交叉成对排名(CPR),在不知道曝光机制的情况下实现无偏见的推荐。对多个观察到的交互进行采样计算,并将它们的预测的组合来构成训练集放到模型中进行训练。> 换句话说:> 1. CPR的训练集的选择不受曝光机制的影响,可以客观的将难样本对和简单样本对以同样概率被选到。> 2. CPR是一种损失函数,此损失函数中的训练集是通过某种方式得到的。> 3. CPR可以替换任何方法中的损失函数,相当于换了一个内核。原创 2022-04-09 15:48:32 · 1210 阅读 · 0 评论 -
【曝光偏差、对比学习】CLRec:Contrastive Learning for Debiased Candidate Generation in Large-Scale
KDD‘21阿里达摩院会议上提出了一种对比学习方法,主要为解决曝光度偏差问题。为了能够让所有样本都有机会被当做负样本,作者设计了队列机制来存储之前的正样本,并只从里边采样下一个batch的负样本。文章设计了CLREC,这是一种对比学习方法,用于在具有超大候选容量的推荐系统中提高DCG的公平性、有效性和效率。进一步改进了CLRec,并提出了multi-CLRec,以精确减少基于多意图的偏差bias。原创 2022-11-01 14:33:14 · 473 阅读 · 0 评论