(十九)从零开始学人工智能-智能推荐系统:深度学习家族

推荐系统系列之三:深度学习家族

1. MLP

来源出处:

  • He, Xiangnan, et al. “Neural collaborative filtering.” Proceedings of the 26th international conference on world wide web. 2017.

目标函数:
L = − ∑ ( u , i ) ∈ O l o g y ^ u , i − ∑ ( u , j ) ∈ O − l o g ( 1 − y ^ u , j ) L=-\sum_{ ( u,i )\in \mathbf{O}}{log\widehat{y}_{u,i}} -\sum_{ ( u,j )\in \mathbf{O^-}}{log (1- \widehat{y}_{u,j} )} L=(u,i)Ology u,i(u,j)Olog(1y u,j)

= − ∑ ( u , i ) ∈ O ∪ O − y u , i l o g y ^ u , i + ( 1 − y u , i ) l o g ( 1 − y ^ u , i ) =-\sum_{(u,i)\in \mathbf{O}\cup\mathbf{O^-}}y_{u,i}log\widehat{y}_{u,i}+(1-y_{u,i})log (1- \widehat{y}_{u,i} ) =(u,i)OOyu,ilogy u,i+(1yu,i)log(1y u,i)

其中, O \mathbf{O} O 表示用户 u u u 和商品 $i $ 之间有交互记录的集合,其中 y u , i = 1 y_{u,i}=1 yu,i=1 O − \mathbf{O^-} O 表示用户 u u u 和商品 $j $ 之间没有交互记录的集合,其中 y u , j = 0 y_{u,j}=0 yu,j=0

说明介绍:

采用神经网络的方法,用交叉熵损失函数对隐式数据进行建模。

在这里插入图片描述

核心代码:

def inference(self, users_inputs, items_inputs):
        embed_users = tf.nn.embedding_lookup(
            self.weights['embedding_users'], users_inputs)
        embed_items = tf.nn.embedding_lookup(
            self.weights['embedding_items'],items_inputs)
        layer0 = tf.nn.relu(tf.matmul(tf.concat([embed_items,embed_users],1), 
                      self.weights['weight_0']) + self.weights['bias_0'])
        layer1 = tf.nn.relu(
            tf.matmul(layer0, self.weights['weight_1']) + self.weights['bias_1'])       
        y_ = tf.matmul(layer1,self.weights['weight_n']) + self.weights['bias_n']
        return y_ 

实验结果:

  • 原论文中的实验处理

数据集:Movielens100K,留一评估(leave-one-out)

HR@10NDCG@10
0.74110.4791
  • 传统随机分割

数据集:Movielens100K,随机分割成训练集:测试集 = 8:2

MAERMSEPrecision@10Recall@10 (HR@10)NDCG@10
0.73590.92750.06280.02960.0130

loss 和 RMSE 的收敛曲线如下图所示:

在这里插入图片描述

在这里插入图片描述

数据集随机分割这个实验中,本人怎么调参都无法将排序指标(Recall 和 NDCG)提升太多,始终在0.1之下。若谁调出个好结果,望留言告知,谢谢!

对比

  • 矩阵分解 MF 实验结果
MAERMSERecall@10 (HR@10)Precision@10
0.72790.92290.02710.0575

在关键参数相同的情况下,对比 MF,可以看出其实 MLP 的实验并没提升多少。我想,这也许是原论文作者采用隐式数据加采样训练和留一评估的原因的吧。

2. LSTM

来源出处:

  • Wu, Chao-Yuan, et al. “Recurrent recommender networks.” Proceedings of the tenth ACM international conference on web search and data mining. 2017.

目标函数:
L = ∑ ( i , j , t ) ∈ O ( r i j ∣ t − r ^ i j ∣ t ( θ ) ) 2 + R ( θ ) L=\sum_{(i,j,t)\in \mathbf{O}}\left(r_{ij|t}-\widehat{r}_{ij|t}\left( \theta \right) \right)^2 + R\left( \theta \right) L=(i,j,t)O(rijtr ijt(θ))2+R(θ)

r ^ i j ∣ t = f ( u i t , m j t , u i , m j ) : = ⟨ u ~ i , t , m ~ j t ⟩ + ⟨ u i , m j ⟩ \widehat{r}_{ij|t}=f\left(u_{it},m_{jt},u_i,m_j \right):= \left \langle \tilde{u}_{i,t},\tilde{m}_{jt} \right \rangle + \left \langle u_i,m_j \right \rangle r ijt=f(uit,mjt,ui,mj):=u~i,t,m~jt+ui,mj

u ~ i , t = W u s e r u i t + b u s e r \tilde{u}_{i,t}=W_{user}u_{it}+b_{user} u~i,t=Wuseruit+buser

m ~ j , t = W m o v i e m j t + b m o v i e \tilde{m}_{j,t}=W_{movie}m_{jt}+b_{movie} m~j,t=Wmoviemjt+bmovie

其中, R ( θ ) R\left( \theta \right) R(θ) 为正则项。 u i u_i ui m j m_j mj 分别表示用户 i i i 和电影 j j j 的静态属性, u ~ i , t \tilde{u}_{i,t} u~i,t m ~ j , t \tilde{m}_{j,t} m~j,t 分别表示他们来自 LSTM 的动态特征向量。

说明介绍:

通过分别对用户和商品得到时间序列进行建模,来获得它们的动态轨迹,然后用它们的动态特征向量来预测评分。

在这里插入图片描述

3. Item2vec

来源出处:

  • Barkan, Oren, and Noam Koenigstein. “Item2vec: neural item embedding for collaborative filtering.” 2016 IEEE 26th International Workshop on Machine Learning for Signal Processing (MLSP). IEEE, 2016.

说明介绍:

作者将 Word2vec 的思想用到推荐中,Word2vec 输入的是词序列,Item2vec 输入的是 购买的商品序列。

在这里插入图片描述

核心代码:

直接参考 Word2vec 代码,数据处理好后,直接在 python 中调用 gensim 包中的 word2vec 函数,然后调参就可以。

4. AutoRec

来源出处:

  • Sedhain, Suvash, et al. “Autorec: Autoencoders meet collaborative filtering.” Proceedings of the 24th international conference on World Wide Web. 2015.

目标函数:

  • Item-based AutoRec:

L = ∑ i = 1 m ∥ r ⋅ , i − h ( r ⋅ , i , θ ) ∥ 2 + 1 2 λ ( ∥ W ∥ 2 + ∥ V ∥ 2 ) L=\sum_{i=1}^{m}{\left \| \mathbf{r}_{\cdot,i}-h\left(\mathbf{r}_{\cdot,i},\theta \right) \right \|^2 +\frac{1}{2}\lambda \left ( \left \| \mathbf{W} \right \|^2 + \left \| \mathbf{V} \right \|^2 \right ) } L=i=1mr,ih(r,i,θ)2+21λ(W2+V2)

其中, r ⋅ , i \mathbf{r}_{\cdot,i} r,i 表示商品 i i i 的所有评分, h ( r ⋅ , i , θ ) h\left(\mathbf{r}_{\cdot,i},\theta \right) h(r,i,θ) 表示模型预测值, W \mathbf{W} W V \mathbf{V} V 表示自编码器的权重。

  • User-based AutoRec:

L = ∑ u = 1 n ∥ r u , ⋅ − h ( r u , ⋅ , θ ) ∥ 2 + 1 2 λ ( ∥ W ∥ 2 + ∥ V ∥ 2 ) L=\sum_{u=1}^{n}{\left \| \mathbf{r}_{u,\cdot}-h\left(\mathbf{r}_{u,\cdot},\theta \right) \right \|^2 +\frac{1}{2}\lambda \left ( \left \| \mathbf{W} \right \|^2 + \left \| \mathbf{V} \right \|^2 \right ) } L=u=1nru,h(ru,,θ)2+21λ(W2+V2)

其中, r u , ⋅ \mathbf{r}_{u,\cdot} ru, 表示用户 u u u 的所有评分。

说明介绍:

这篇文章采用自编码的方式来预测评分。

在这里插入图片描述

核心代码:

# 网络的前向传播
def inference(self, rating_inputs):
    encoder = tf.nn.sigmoid(tf.matmul(rating_inputs, self.weights['V']) + self.weights['mu'])
    decoder = tf.identity(tf.matmul(encoder, self.weights['W']) + self.weights['b'])
    return decoder         


def loss_function(self, true_r, predicted_r, lamda_regularizer=1e-3):
    idx = tf.where(true_r>0)
    true_y = tf.gather_nd(true_r, idx)
    predicted_y = tf.gather_nd(predicted_r, idx)
    mse = tf.compat.v1.losses.mean_squared_error(true_y, predicted_y)
    regularizer = tf.contrib.layers.l2_regularizer(lamda_regularizer)
    regularization = regularizer(self.weights['V']) + regularizer(self.weights['W'])
    cost = mse + regularization
    return cost 

实验结果:

数据集:Movielens100K,随机分割成训练集:测试集 = 8:2

  • User-based AutoRec:
MAERMSERecall@10Precision@10
0.82811.06610.03630.0770
  • Item-based AutoRec:
MAERMSERecall@10Precision@10
0.77770.95770.06390.1355

5. CDAE (Collaborative Denoising Auto-Encoders)

来源出处:

  • Wu, Yao, et al. “Collaborative denoising auto-encoders for top-n recommender systems.” Proceedings of the Ninth ACM International Conference on Web Search and Data Mining. 2016.

目标函数:
L = 1 n ∑ u = 1 n E p ( y ~ u ∣ y u ) l [ ( y ~ u ∣ y ^ u ) ] + 1 2 λ ( ∥ W ∥ 2 + ∥ W ′ ∥ 2 + ∥ V ∥ 2 + ∥ b ∥ 2 + + ∥ b ′ ∥ 2 ) L=\frac{1}{n}\sum_{u=1}^{n}\mathbb{E}_{p\left(\widetilde{\mathbf{y}}_u|\mathbf{y}_u \right) } l\left [ \left(\widetilde{\mathbf{y}}_u|\widehat{\mathbf{y}}_u \right) \right ] +\frac{1}{2}\lambda \left ( \left \| \mathbf{W} \right \|^2 +\left \| \mathbf{W'} \right \|^2+ \left \| \mathbf{V} \right \|^2 + \left \| \mathbf{b} \right \|^2++ \left \| \mathbf{b'} \right \|^2\right ) L=n1u=1nEp(y uyu)l[(y uy u)]+21λ(W2+W2+V2+b2++b2)

y ^ u , i = f ( W i ′ T z u + b i ′ ) \widehat{y}_{u,i}=f \left({\mathbf{W}_i^{'}}^Tz_u+b_i^{'} \right) y u,i=f(WiTzu+bi)

其中, y ~ u \widetilde{\mathbf{y}}_u y u y ^ u \widehat{\mathbf{y}}_u y u 分别表示网络的输出和输出, y u \mathbf{y}_u yu 表示用户 u u u 的所有评分记录, y ~ u \widetilde{\mathbf{y}}_u y u y u \mathbf{y}_u yu 以概率 p p p 的 dropout 得到的采样。 W \mathbf{W} W 表示商品的出入的权重,$ \mathbf{V}$ 表示用户的输入权重, W ′ \mathbf{W'} W 表示输出权重。

说明介绍:

CDAE 可以看成 AutoRec 的改进版本,只是它设计地更巧妙。从示意图上看出,除了用户的评分记录,它还多了一个用户本身的信息输入;从公式上看,它采用 dropout 采样作为输入,防止模型过拟合。

在这里插入图片描述

核心代码:

# 网络的前向传播
def inference(self, rating_inputs, user_inputs):
    self.corrupted_inputs = tf.nn.dropout(rating_inputs, rate=self.dropout_prob)
    Vu = tf.reshape(tf.nn.embedding_lookup(self.weights['V'], user_inputs),(-1, self.hidden_size))
    encoder = tf.nn.sigmoid(tf.matmul(self.corrupted_inputs, self.weights['W1']) + Vu + self.weights['b1'])
    decoder = tf.identity(tf.matmul(encoder, self.weights['W2']) + self.weights['b2'])
    return decoder         


def loss_function(self, true_r, predicted_r, lamda_regularizer=1e-3, loss_type='square'):
    if loss_type=='square':
        loss = tf.losses.mean_squared_error(true_r, predicted_r)
    elif loss_type=='cross_entropy':
        loss = tf.nn.sigmoid_cross_entropy_with_logits(labels=true_r, logits=predicted_r)

    regularizer = tf.contrib.layers.l2_regularizer(lamda_regularizer)
    regularization = regularizer(self.weights['V']) + regularizer(self.weights['W1']) +\                      regularizer(self.weights['W2']) + regularizer(self.weights['b1']) +\                      regularizer(self.weights['b2'])
    cost = loss + regularization
    return cost

实验结果:

数据集:Movielens100K,随机分割成训练集:测试集 = 8:2

CDAE 参数设置按照原论文,因此与 AutoRec 的参数有些不同,比如学习率和隐层大小。

为了对比 AutoRec 我们也做了两组。

  • User-based
Recall@10Precision@10
0.04940.1048
  • Item-based
Recall@10Precision@10
0.06840.1451

加了这两个措施,实验结果确实都比 AutoRec 模型好了一些!可惜它们的最优参数不是相同的,否则更有说服力。

6. IRGAN

来源出处:

  • Wang, Jun, et al. “Irgan: A minimax game for unifying generative and discriminative information retrieval models.” Proceedings of the 40th International ACM SIGIR conference on Research and Development in Information Retrieval. 2017.

目标函数:
L = min ⁡ θ max ⁡ ϕ ∑ n = 1 N ( E d ∼ p t r u e ( d ∣ q n , r ) [ l o g D ( d ∣ q n ) ] + E d ∼ p θ ( d ∣ q n , r ) [ l o g ( 1 − D ( d ∣ q n ) ) ] ) L=\min \limits_ {\theta}\max \limits_ {\phi} \sum_{n=1}^{N}\left( \mathbb{E}_{d\sim p_{true}\left(d|q_n,r\right) } \left [ logD\left(d|q_n\right) \right ]+ \mathbb{E}_{d\sim p_{\theta}\left(d|q_n,r\right) }\left [ log \left(1-D\left(d|q_n\right) \right) \right ] \right) L=θminϕmaxn=1N(Edptrue(dqn,r)[logD(dqn)]+Edpθ(dqn,r)[log(1D(dqn))])

D ( d ∣ q ) = σ ( f ϕ ( d , q ) ) = e x p ( f ϕ ( d , q ) ) 1 + e x p ( f ϕ ( d , q ) ) D(d|q)=\sigma \left( f_{\phi} \left( d,q\right) \right)=\frac{exp \left(f_{\phi} \left( d,q\right) \right)}{1+exp \left(f_{\phi} \left( d,q\right) \right)} D(dq)=σ(fϕ(d,q))=1+exp(fϕ(d,q))exp(fϕ(d,q))

说明介绍:

这篇文章是将当前热门的对抗网络在推荐上实现建模。

程序地址:

以后添加…

实验结果:

数据集:Movielens100K,随机分割成训练集:测试集 = 8:2

Precision@10NDCG@10
0.31400.3723

声明

本博客所有内容仅供学习,不为商用,如有侵权,请联系博主谢谢。

参考文献

[1] He, Xiangnan, et al. “Neural collaborative filtering.” Proceedings of the 26th international conference on world wide web. 2017.
[2] Wu, Chao-Yuan, et al. “Recurrent recommender networks.” Proceedings of the tenth ACM international conference on web search and data mining. 2017.
[3] Barkan, Oren, and Noam Koenigstein. “Item2vec: neural item embedding for collaborative filtering.” 2016 IEEE 26th International Workshop on Machine Learning for Signal Processing (MLSP). IEEE, 2016.
[4] Sedhain, Suvash, et al. “Autorec: Autoencoders meet collaborative filtering.” Proceedings of the 24th international conference on World Wide Web. 2015.
[5] Wu, Yao, et al. “Collaborative denoising auto-encoders for top-n recommender systems.” Proceedings of the Ninth ACM International Conference on Web Search and Data Mining. 2016.
[6] Wang, Jun, et al. “Irgan: A minimax game for unifying generative and discriminative information retrieval models.” Proceedings of the 40th International ACM SIGIR conference on Research and Development in Information Retrieval. 2017.

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值