36种序列召回模型综述

目录

1.Fpmc

2.HRM

3.Gru2rec

4.Gru2recf

5.Gru2reckg

6.Transrec

7.Narm

8.SASRec

9.SASRecf

10.Caser

11.DIN

12.DIEN

13.MANN

14.KSR

15.Stamp

16.NextItNet

17.Fdsa

18.SRGNN

19.Gcsan

20.AttRec

21.BERT4Rec

22.BST

23.M3

24.MIND

25.DSIN

26.MIMN/SIM

27.DMT

28.Comirec

29.S3rec

30.MEANTIME

31.CTA

32.FISSA

33.SSE-PT

34.TiSASRec

35.DFN

36.SINE


1.Fpmc

Factorizing Personalized Markov Chains for Next-Basket Recommendation:WWW 2010

模型结构

核心代码

优势

问题

2.HRM

Learning Hierarchical Representation Model for Next Basket Recommendation:SIGIR 2015

模型结构

核心代码

优势

问题

3.Gru2rec

Improved Recurrent Neural Networks for Session-based Recommendations: DLRS 2016

模型结构

核心代码

优势

问题

4.Gru2recf

Parallel Recurrent Neural Network Architectures for Feature-rich Session-based Recommendations: RecSys 2016

模型结构

核心代码

优势

问题

5.Gru2reckg

It is an extension of GRU4Rec, which concatenates item and its corresponding pre-trained knowledge graph embedding feature as the input

模型结构

核心代码

优势

问题

6.Transrec

Translation-based Recommendation:RecSys 2017

模型结构

核心代码

优势

问题

7.Narm

Neural Attentive Session-based Recommendation:CIKM 2017

模型结构

核心代码

优势

问题

8.SASRec

Self-Attentive Sequential Recommendation: ICDM 2018

模型结构:based on Transformer,分为Embedding层、Self-Attention层(多个自注意力机制+(残差连接、LayerNormalization、Dropout)+前馈网络)和预测层。FFN层使用RELU函数加入了非线性能力:

                       

     多个自注意力之间叠加,以学习更复杂的特征转换:

                                                    

核心代码:

def forward(self, item_seq, item_seq_len):
    position_ids = torch.arange(item_seq.size(1), dtype=torch.long, device=item_seq.device)
    position_ids = position_ids.unsqueeze(0).expand_as(item_seq)
    position_embedding = self.position_embedding(position_ids)

    item_emb = self.item_embedding(item_seq)
    input_emb = item_emb + position_embedding
    input_emb = self.LayerNorm(input_emb)
    input_emb = self.dropout(input_emb)

    extended_attention_mask = self.get_attention_mask(item_seq)

    trm_output = self.trm_encoder(input_emb, extended_attention_mask, output_all_encoded_layers=True)
    output = trm_output[-1]
    output = self.gather_indexes(output, item_seq_len - 1)
    return output # [B H]

优势:最早基于self-attention机制来做序列化推荐的模型,利用多头自注意力机制对用户历史行为建模;

问题:网络层数越深,模型容易过拟合、训练过程不稳定。故加入了残差连接、Layer Normalization 和Dropout来抑制模型过拟合。

9.SASRecf

This is an extension of SASRec, which concatenates item representations and item attribute representations as the input to the model

模型结构

核心代码

优势

问题

10.Caser

Personalized Top-N Sequential Recommendation via Convolutional Sequence Embedding:WSDM 2018

模型结构

核心代码

优势

问题

11.DIN

Deep Interest Network for Click-Through Rate Prediction:SIGKDD:2018

模型结构:引入了基于Attention机制的local activation unit模块;

核心代码:

    
def forward(user, item_seq, item_seq.len):
    user_emb = self.attention(target_item_feat_emb, item_feat_list, item_seq_len)
    user_emb = user_emb.squeeze()

    # input the DNN to get the prediction score
    din_in = torch.cat([user_emb
  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值