推荐系统遇上深度学习(一一七)-[腾讯]结合蒸馏和多任务学习的召回模型

今天分享一篇腾讯在召回阶段的论文,题目为《Distillation based Multi-task Learning: A Candidate Generation Model for Improving Reading Duration》,将多任务学习和蒸馏学习相结合,应用于召回阶段来提升整体的信息流中的浏览时长,一起来看一下。

1、背景

在信息流场景下,为了提升用户体验,阅读时长的建模也十分重要。本文重点关注于召回阶段的阅读时长建模,实践中,面临两方面的挑战:

1)第一个挑战是如何处理阅读时长为0的负样本(即没有点击的负样本),这些负样本的阅读时长为0是因为没有点击,这与有点击但是阅读时长很短的样本有所区别,直接将这些样本的label设定为0有可能会导致不准确的估计。
2)为了解决第一个挑战,一种可以尝试的思路是多任务学习,即一个任务预测ctr,一个任务预测点击后的阅读时长,并结合ESMM的思路进行建模。但是在召回阶段,部署多任务学习模型也是比较困难的。

目前常用的的召回阶段模型是双塔模型,同时,在建模阅读时长方面,大多数的方法是通过单个回归模型,并将未点击的样本的时长设定为0 。而本文为了解决上述两方面的挑战,提出了DMTL(distillation based multi-task learning approach),将多任务学习和模型蒸馏应用于召回阶段的双塔模型中,一起来看一下。

2、D

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值