来看看 “基于卷积神经网络的推荐系统“是怎样的

本文探讨了如何使用卷积神经网络(CNN)处理用户行为序列,重点关注Caser和NextItNet模型。Caser利用水平和垂直卷积捕获局部模式,而NextItNet通过扩张卷积层和残差网络增加感受野,更好地处理长距离依赖。Caser的max-pooling和单层卷积限制了其建模能力,而NextItNet通过改进解决了这些问题。
摘要由CSDN通过智能技术生成

上一篇字节李航书中的深度匹配模型演化图谱【详解】介绍了RNN-based 的基础方法,这篇文章讨论CNN 是如何处理用户有序行为序列的,具体涉及到 Caser 和 NextItNet 两个算法。

由于卷积单元的引入,卷积神经网络带来了局部感知和参数共享的效果。网络部分连通的思想,也是受启发于生物学里面的视觉系统结构,视觉皮层的神经元就是局部接受信息的(即这些神经元只响应某些特定区域的刺激)。CNN在处理 NLP 任务时通常卷积的宽度和embedding_map 的维度是相同的。

一. Caser

Personalized Top-N Sequential Recommendation via Convolutional Sequence Embedding是2018年发表在 WSDM 的会议论文,文章提出了 Caser 模型,通过卷积神经网络对短期 session 序列进行信息提取。

  • 1.1 CNN 相比RNN的优势

虽然RNN有强大的序列建模能力,但是通常当包含很强的序列模式时才能表现较好。而在推荐系统中,用户历史相邻的行为之间并没有很强的关联关系,比如用户在看完 A 之后看了 B,只是因为用户喜欢 B,而 A 和 B 之间本身并没有关系。所以作者不采用 RNN 来建模相邻行为的序列模式(sequential pattern), 而是使用 CNN 来抽取point-level, union-level no skip 和 union-level skip once 的 pattern,建模这三种pattern 对于 target 的影响。

如上图,point-level 是指先前的每一个动作(蓝色矩形框) 都是单独地而不是集体地影响目标动作。而union-leve, no skip 是一种联合的序列模式,同时考虑三个蓝色行为对下一个行为的影响,比如当同时购买牛奶、黄油时比单独购买了牛奶或黄油,对接下来将要购买面粉的指示作用更强。

no skip vs skip once, 过去的行为可能并不会直接影响下一个邻接行为,而是对后面的某个行为有较强的指示作用。例如,游客依次去过了机场、酒店、餐厅、酒吧和景点&#x

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值