AFM
Attentional Factorization Machines,在 NFM 模型中加入注意力机制,通过加入注意力网络,对不同特征交叉的关注度不同,即在元素积操作中加入注意力得分
a
i
j
a_{ij}
aij,再进行池化。
f
A
t
t
=
∑
(
i
,
j
)
∈
R
x
a
i
j
(
v
i
⊙
v
j
)
x
i
x
j
f_{Att}=\sum_{(i,j) \in R_{x}}a_{ij}(v_{i}\odot v_{j})x_{i}x_{j}
fAtt=(i,j)∈Rx∑aij(vi⊙vj)xixj
DIN
Deep Interest Network,模型输入的广告特征和用户特征,两者的关联程度非常强,针对广告特征可以投给不同特征不同注意力,即利用候选商品和历史行为商品之间的相关性计算出一个权重。
设
V
u
V_{u}
Vu 为用户的 Embedding 向量,
V
a
V_{a}
Va 为候选商品的 Embedding 向量,
V
i
V_{i}
Vi 为用户第
i
i
i 次行为的 Embedding 向量,本质上是将
V
i
V_{i}
Vi 从平均池化变为加权和,注意力得分
g
(
V
i
,
V
a
)
g(V_{i},V_{a})
g(Vi,Va) 则由神经网络构成的注意力激活单元构成:
V
u
=
∑
i
=
1
N
w
i
⋅
V
i
=
∑
i
=
1
N
g
(
V
i
,
V
a
)
⋅
V
i
V_{u}=\sum_{i=1}^{N}w_{i}\cdot V_{i}=\sum_{i=1}^{N}g(V_{i},V_{a})\cdot V_{i}
Vu=i=1∑Nwi⋅Vi=i=1∑Ng(Vi,Va)⋅Vi
DIEN
Deep Interest Evolution Network,DIN 的演化模型,引进序列信息,创新点在于兴趣进化网络。先由行为序列层把原始的 id 类行为序列转换为 Embedding 行为序列,接着兴趣抽取层模拟用户兴趣迁移过程(GRU 网络),最后兴趣进化层加入注意力机制模拟兴趣进化过程(AUGRU)。
DRN
强化学习:智能体“行动-反馈-状态更新”。初始化推荐系统,基于已收集数据进行排序,收到用户反馈,更新状态或训练模型来更新模型。
使用 DQN 作为智能体,将用户特征和环境特征归为状态向量,将用户-新闻交叉特征和新闻特征归为行动特征,再将价值得分和优势得分综合起来。
竞争梯度下降算法: