KDD2020|京东提出图像类别卷积神经网络CSCNN用于视觉感知CTR预估

京东在KDD2020提出CSCNN,一种针对视觉感知点击率预估的卷积神经网络。CSCNN通过轻量级注意力模块融合类别信息,提升模型的表达能力和预测效果。在离线和在线实验中,CSCNN表现出色,已在京东搜索广告系统中部署并服务于大量用户。
摘要由CSDN通过智能技术生成

Category-Specific CNN for Visual-aware CTR Prediction at JD.com

Hu Liu, Jing Lu, Hao Yang, Xiwei Zhao, Sulong Xu, Hao Peng, Zehua Zhang, Wenjie Niu, Xiaokun Zhu, Yongjun Bao, Weipeng Yan

Business Growth BU, JD

https://dl.acm.org/doi/pdf/10.1145/3394486.3403319

京东,是中国最大的B2C电商平台之一,具有一流的广告系统,服务于数百万广告主和数亿消费者。

该系统,跟大多数电商场景一样,广告是以图片形式展示的。这使得视觉感知的点击率预估非常重要,不仅从商业角度,而且从用户体验角度也是如此.现有算法通常利用现成的卷积神经网络来提取视觉特征,然后将视觉特征和非视觉特征融合起来,用于最终的点击率预估。

尽管该领域已经有很多研究,但是该领域仍然面对两个关键挑战。其一,尽管离线研究取得了喜人的进展,在实际系统中应用卷积神经网络并不简单,一方面线上对高效的端到端训练要求比较严格,另一方面,线上服务对低延时要求比较高。

其二,现成的卷积神经网络,以及后续的融合结构不是最优的。具体而言,现成的卷积神经网络是用于分类任务的,没有将类别作为输入特征。在电子商务中,类别是精确标注的,包含丰富的视觉先验知识,有助于视觉建模。忽略了广告类别,卷积神经网络也许会提取一些非必须的类别无关特征,浪费卷积神经网络的本身就有限的表达能力。

为了克服上述两个挑战,作者们提出类别卷积神经网络,CSCNN,用于点击率预估。CSCNN将类别知识利用轻量加权注意力模块融入每一个卷积层中。这就使得CSCNN提取到表达能力更强的类别视觉模式,有助于点击率预估。

在离线实验中,作者们利用了两个数据集,一个基准数据集,一个京东的百亿规模的真实生产数据集,同时结合在线的AB测试,结果表明,CSCNN效果优于STOA算法。作者们构建了高性能架构,24小时内在百亿规模真实生产数据集上完成端到端的训练,线上系统中满足了低延时需求,CPU上耗时20ms。CSCNN已经部署在京东的搜素广告系统中,服务于数亿活跃用户的主流量场景中。

这篇文章的主要贡献如下

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值