深度学习推荐系统——结构探索

AFM

  Attentional Factorization Machines,在 NFM 模型中加入注意力机制,通过加入注意力网络,对不同特征交叉的关注度不同,即在元素积操作中加入注意力得分 a i j a_{ij} aij,再进行池化。
f A t t = ∑ ( i , j ) ∈ R x a i j ( v i ⊙ v j ) x i x j f_{Att}=\sum_{(i,j) \in R_{x}}a_{ij}(v_{i}\odot v_{j})x_{i}x_{j} fAtt=(i,j)Rxaij(vivj)xixj
在这里插入图片描述

DIN

  Deep Interest Network,模型输入的广告特征和用户特征,两者的关联程度非常强,针对广告特征可以投给不同特征不同注意力,即利用候选商品和历史行为商品之间的相关性计算出一个权重。
  设 V u V_{u} Vu 为用户的 Embedding 向量, V a V_{a} Va 为候选商品的 Embedding 向量, V i V_{i} Vi 为用户第 i i i 次行为的 Embedding 向量,本质上是将 V i V_{i} Vi 从平均池化变为加权和,注意力得分 g ( V i , V a ) g(V_{i},V_{a}) g(Vi,Va) 则由神经网络构成的注意力激活单元构成:
V u = ∑ i = 1 N w i ⋅ V i = ∑ i = 1 N g ( V i , V a ) ⋅ V i V_{u}=\sum_{i=1}^{N}w_{i}\cdot V_{i}=\sum_{i=1}^{N}g(V_{i},V_{a})\cdot V_{i} Vu=i=1NwiVi=i=1Ng(Vi,Va)Vi
在这里插入图片描述

DIEN

  Deep Interest Evolution Network,DIN 的演化模型,引进序列信息,创新点在于兴趣进化网络。先由行为序列层把原始的 id 类行为序列转换为 Embedding 行为序列,接着兴趣抽取层模拟用户兴趣迁移过程(GRU 网络),最后兴趣进化层加入注意力机制模拟兴趣进化过程(AUGRU)。
在这里插入图片描述

DRN

强化学习:智能体“行动-反馈-状态更新”。初始化推荐系统,基于已收集数据进行排序,收到用户反馈,更新状态或训练模型来更新模型。
  使用 DQN 作为智能体,将用户特征和环境特征归为状态向量,将用户-新闻交叉特征和新闻特征归为行动特征,再将价值得分和优势得分综合起来。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
竞争梯度下降算法:
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值