KARN 2020(AAAI) A Knowledge-Aware Attentional Reasoning Network for Recommendation

提出背景

现有的知识图谱推荐通过用户和物品之间的路径进行推理,忽略了用户的历史点击序列,用户的某段历史点击序列可以归纳出用户对某类物品的喜爱程度,从而进行更加准确的推荐。
在这里插入图片描述

本文贡献

  • 我们提出了一种基于知识图谱的注意力推理网络KARN,该网络融合了用户的点击历史记录序列KG中的路径连接以进行推荐。
  • 我们通过结合基于用户物品知识图中物品的文本知识和上下文知识来提取物品表示。
  • 我们提出了两个组件,分别从用户的点击序列和KG中的路径连通性获得用户的历史兴趣和潜在意图的特征。

基本架构

在这里插入图片描述

物品表示提取

我们从文本知识和上下文知识中提取项目表示。在这里,我们将物品的标题作为文本知识,因为标题通常给出了这个物品实体的主要主题,而将物品在KG中的近邻作为上下文知识,因为上下文实体通常提供更多的补充信息来提高物品实体的可识别性。

  • 物品文本表示采用 C N N \color{red}{CNN} CNN
    v ′ = g 1 ( [ p 1 , p 2 , … , p F ] ) \mathbf{v}^{\prime}=g_{1}\left(\left[\mathbf{p}_{1}, \mathbf{p}_{2}, \ldots, \mathbf{p}_{F}\right]\right) v=g1([p1,p2,,pF])
  • 物品实体的嵌入
    v ∈ R d \mathbf{v} \in R^{d} vRd
  • 物品上下文表示是所有与该物品相关的实体的文本表示的平均值
    v ‾ = ∑ e i ∈ C ( v ) e i ∣ C ( v ) ∣ \overline{\mathbf{v}}=\frac{\sum_{e_{i} \in C(v)} \mathbf{e}_{i}}{|C(v)|} v=C(v)eiC(v)ei
    将三者结合
    I = g 2 ( [ v , v ′ , v ‾ ] ) \mathbf{I}=g_{2}\left(\left[\mathbf{v}, \mathbf{v}^{\prime}, \overline{\mathbf{v}}\right]\right) I=g2([v,v,v])

用户历史兴趣提取

为了获得用户的历史兴趣,SRA组件被设计为RNN注意力网络的堆栈,该网络将用户的点击项目序列作为输入,并输出用户的历史兴趣表示。
{ v 1 , v 2 , … , v t } \left\{v_{1}, v_{2}, \ldots, v_{t}\right\} {v1,v2,,vt} as { I 1 , I 2 , … , I t } \left\{\mathbf{I}_{1}, \mathbf{I}_{2}, \ldots, \mathbf{I}_{t}\right\} {I1,I2,,It}
长短期记忆网络
h j = LSTM ⁡ ( h j − 1 , I j ) \mathbf{h}_{j}=\operatorname{LSTM}\left(\mathbf{h}_{j-1}, \mathbf{I}_{j}\right) hj=LSTM(hj1,Ij)
注意力网络
A = softmax ⁡ ( W 1 σ ( W 2 H ) ) a = f a ( A H T ) s = [ a ; h t ] \begin{aligned} \mathbf{A} &=\operatorname{softmax}\left(\mathbf{W}_{1} \sigma\left(\mathbf{W}_{2} \mathbf{H}\right)\right) \\ \mathbf{a} &=f_{a}\left(\mathbf{A} \mathbf{H}^{T}\right) \\ \mathbf{s} &=\left[\mathbf{a} ; \mathbf{h}_{t}\right] \end{aligned} Aas=softmax(W1σ(W2H))=fa(AHT)=[a;ht]

用户潜在兴趣提取

  1. 给定一个路径 p j = { e 1 , r 1 , e 2 , r 2 , … , e q } p_{j}=\left\{e_{1}, r_{1}, e_{2}, r_{2}, \ldots, e_{q}\right\} pj={e1,r1,e2,r2,,eq} j = [ 1 , … , n ] j=[1, \ldots, n] j=[1,,n],我们将当前实体 e i e_i ei的嵌入、其实体类型 e i ′ e_i' ei和关系 r i r_i ri连在一起,作为LSTM单元的输入向量 x i = [ e i ; e i ′ ; r i ] \mathbf{x}_{i}=\left[\mathbf{e}_{i} ; \mathbf{e}_{i}^{\prime} ; \mathbf{r}_{i}\right] xi=[ei;ei;ri]。这里我们使用物品实体的物品表示,并为最后一个实体 e q e_q eq定义一个空关系 r q r_q rq,将其垫在路径的末端。因此,将输入路径嵌入表示为{x1,x2,…,xq},它不仅包含了路径的顺序信息,还包含了实体的组成语义信息及其与下一个实体的关系。
  2. 在确定了路径 p j p_j pj的输入表示为 { x 1 , x 2 , … , x q } \left\{\mathbf{x}_{1}, \mathbf{x}_{2}, \ldots, \mathbf{x}_{q}\right\} {x1,x2,,xq}后,我们采用SRA网络来探索路径的顺序信息,并生成单路径表示来编码其整体语义为 s j s_j sj 。对于用户u与物品v之间的路径集 P ( u , v ) = { p 1 , p 2 , … , p n } P(u, v)=\left\{p_{1}, p_{2}, \ldots, p_{n}\right\} P(u,v)={p1,p2,,pn},我们可以得到其特征表示为 { s 1 , s 2 , … , s n } \left\{\mathbf{s}_{1}, \mathbf{s}_{2}, \ldots, \mathbf{s}_{n}\right\} {s1,s2,,sn}。不同的路径对用户潜在意图的建模影响不同,因此我们利用SRA组件中使用的注意力机制来产生用户的潜在意图表示 s ‾ \overline{s} s,它是多个单路径特征表示 { s 1 , s 2 , … , s n } \left\{\mathbf{s}_{1}, \mathbf{s}_{2}, \ldots,\mathbf{s}_{n}\right\} {s1,s2,,sn}的不同权重的聚合。

推荐概率计算

  1. 结合历史兴趣和潜在兴趣
    u = sigmoid ⁡ ( U 1 [ s ; s ‾ ] + b 1 ) \mathbf{u}=\operatorname{sigmoid}\left(\mathbf{U}_{1}[\mathbf{s} ; \overline{\mathbf{s}}]+\mathbf{b}_{1}\right) u=sigmoid(U1[s;s]+b1)
  2. 预测点击率
    y ~ = sigmoid ⁡ ( U 2 T [ u ; I ] + b ) \tilde{y}=\operatorname{sigmoid}\left(\mathbf{U}_{2}^{T}[\mathbf{u} ; \mathbf{I}]+b\right) y~=sigmoid(U2T[u;I]+b)

训练

输入

X = X= X= { ( u , v ) , S ( u ) , P ( u , v ) , y } , \{(u, v), S(u), P(u, v), y\}, {(u,v),S(u),P(u,v),y}, where S ( u ) = { v 1 , v 2 , … , v t } S(u)=\left\{v_{1}, v_{2}, \ldots, v_{t}\right\} S(u)={v1,v2,,vt}
is the users’ history clicked item sequence, P ( u , v ) = P(u, v)= P(u,v)= { p 1 , p 2 , … , p n } \left\{p_{1}, p_{2}, \ldots, p_{n}\right\} {p1,p2,,pn} is the set of paths between user u u u and item v , v, v, and y y y is the label that equals to 1 if X X X is the positive sample,otherwise 0.

损失函数

L = − { ∑ X ∈ Δ + y log ⁡ ( y ~ ) + ∑ X ′ ∈ Δ − ( 1 − y ) log ⁡ ( 1 − y ~ ) } L=-\left\{\sum_{X \in \Delta^{+}} y \log (\tilde{y})+\sum_{X^{\prime} \in \Delta^{-}}(1-y) \log (1-\tilde{y})\right\} L={XΔ+ylog(y~)+XΔ(1y)log(1y~)}

数据集

亚马逊评论数据集
数据集

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值