36种序列召回模型综述

本文详细综述了36种序列召回模型,涵盖了从Fpmc、HRM到SINE等多种模型,包括它们的模型结构、核心代码、优势和存在的问题。这些模型在推荐系统中利用用户行为序列,如GRU2rec系列、SASRec、BERT4Rec等,通过自我注意力机制、记忆网络和图神经网络等技术,旨在更好地理解和预测用户兴趣的演变。
摘要由CSDN通过智能技术生成

目录

1.Fpmc

2.HRM

3.Gru2rec

4.Gru2recf

5.Gru2reckg

6.Transrec

7.Narm

8.SASRec

9.SASRecf

10.Caser

11.DIN

12.DIEN

13.MANN

14.KSR

15.Stamp

16.NextItNet

17.Fdsa

18.SRGNN

19.Gcsan

20.AttRec

21.BERT4Rec

22.BST

23.M3

24.MIND

25.DSIN

26.MIMN/SIM

27.DMT

28.Comirec

29.S3rec

30.MEANTIME

31.CTA

32.FISSA

33.SSE-PT

34.TiSASRec

35.DFN

36.SINE


1.Fpmc

Factorizing Personalized Markov Chains for Next-Basket Recommendation:WWW 2010

模型结构

核心代码

优势

问题

2.HRM

Learning Hierarchical Representation Model for Next Basket Recommendation:SIGIR 2015

模型结构

核心代码

优势

问题

3.Gru2rec

Improved Recurrent Neural Networks for Session-based Recommendations: DLRS 2016

模型结构

核心代码

优势

问题

4.Gru2recf

Parallel Recurrent Neural Network Architectures for Feature-rich Session-based Recommendations: RecSys 2016

模型结构

核心代码

优势

问题

5.Gru2reckg

It is an extension of GRU4Rec, which concatenates item and its corresponding pre-trained knowledge graph embedding feature as the input

模型结构

核心代码

优势

问题

6.Transrec

Translation-based Recommendation:RecSys 2017

模型结构

核心代码

优势

问题

7.Narm

Neural Attentive Session-based Recommendation:CIKM 2017

模型结构

核心代码

优势

问题

8.SASRec

Self-Attentive Sequential Recommendation: ICDM 2018

模型结构:based on Transformer,分为Embedding层、Self-Attention层(多个自注意力机制+(残差连接、LayerNormalization、Dropout)+前馈网络)和预测层。FFN层使用RELU函数加入了非线性能力:

                       

     多个自注意力之间叠加,以学习更复杂的特征转换:

                                                    

核心代码:

def forward(self, item_seq, item_seq_len):
    position_ids = torch.arange(item_seq.size(1), dtype=torch.long, device=item_seq.device)
    position_ids = position_ids.unsqueeze(0).expand_as(item_seq)
    position_embedding = self.position_embedding(position_ids)

    item_emb = self.item_embedding(item_seq)
    input_emb = item_emb + position_embedding
    input_emb = self.LayerNorm(input_emb)
    input_emb = self.dropout(input_emb)

    extended_attention_mask = self.get_attention_mask(item_seq)

    trm_output = self.trm_encoder(input_emb, extended_attention_mask, output_all_encoded_layers=True)
    output = trm_output[-1]
    output = self.gather_indexes(output, item_seq_len - 1)
    return output # [B H]

优势:最早基于self-attention机制来做序列化推荐的模型,利用多头自注意力机制对用户历史行为建模;

问题:网络层数越深,模型容易过拟合、训练过程不稳定。故加入了残差连接、Layer Normalization 和Dropout来抑制模型过拟合。

9.SASRecf

This is an extension of SASRec, which concatenates item representations and item attribute representations as the input to the model

模型结构

核心代码

优势

问题

10.Caser

Personalized Top-N Sequential Recommendation via Convolutional Sequence Embedding:WSDM 2018

模型结构

核心代码

优势

问题

11.DIN

Deep Interest Network for Click-Through Rate Prediction:SIGKDD:2018

模型结构:引入了基于Attention机制的local activation unit模块;

核心代码:

    
def forward(user, item_seq, item_seq.len):
    user_emb = self.attention(target_item_feat_emb, item_feat_list, item_seq_len)
    user_emb = user_emb.squeeze()

    # input the DNN to get the prediction 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值