隐语义模型LFM原理及Python实现

隐语义模型=Funk-SVD算法

1 矩阵P、Q、R

评分矩阵R分解成两个矩阵相乘(用户、物品隐表示矩阵P和Q)
给定F,是隐含的类别数,维度
矩阵R m×n m个用户 n个评分
矩阵P m×f 一行代表一个用户
矩阵Q f×n 一列代表一个物品
注:参考有的说明是P和Q都是m×f n×f 或者 f×m f×n,然后其中一个转置,其实含义都一样
r_ui=p_u1*q_i1+p_u2*q_i2+…+p_uf*q_if

2 损失函数

用户u对电影i的预测评分是
在这里插入图片描述
防止过拟合,加入正则化
在这里插入图片描述

3 随机梯度下降求解

①求导
在这里插入图片描述
比如3个维度f
p1 p2 p3 q1 q2 q3
前半部分 对p1求导 只有q1参数会×p1
②求导
在这里插入图片描述
在这里插入图片描述
③梯度下降多次
在这里插入图片描述)

4 代码

#初始化P Q P和Q都是F×个数
def init(train_data,test_data,F):
    sample_data=train_data.append(test_data,sort=False)
    users=list(set(sample_data['UserID']))
    movies=list(set(sample_data['MovieID']))
    users.sort()
    movies.sort()
    #R=pd.DataFrame(data=None,index=users,columns=movies)
    #for index,item in train_data.iterrows():
    #    R.loc[item['UserID']][item['MovieID']]=item['Rating
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
以下是基于LFM+MLP模型的GRU的代码实现,使用Python和PyTorch框架: ```python import torch import torch.nn as nn class LFM_MLP_GRU(nn.Module): def __init__(self, num_users, num_items, embedding_size, hidden_size, mlp_layers): super(LFM_MLP_GRU, self).__init__() # LFM embedding layers self.user_embedding = nn.Embedding(num_users, embedding_size) self.item_embedding = nn.Embedding(num_items, embedding_size) # MLP layers layers = [] input_size = 2 * embedding_size for layer in mlp_layers: layers.append(nn.Linear(input_size, layer)) layers.append(nn.ReLU()) input_size = layer self.mlp_layers = nn.Sequential(*layers) # GRU layer self.gru = nn.GRU(input_size, hidden_size) # Output layer self.output_layer = nn.Linear(hidden_size, 1) def forward(self, user_ids, item_ids): # LFM embedding user_embedding = self.user_embedding(user_ids) item_embedding = self.item_embedding(item_ids) # Concatenate user and item embeddings lfm_input = torch.cat([user_embedding, item_embedding], dim=1) # Pass through MLP layers mlp_output = self.mlp_layers(lfm_input) # Reshape MLP output for GRU input gru_input = mlp_output.unsqueeze(0) # Pass through GRU layer gru_output, _ = self.gru(gru_input) # Pass through output layer and return output = self.output_layer(gru_output) return output.squeeze() ``` 此代码实现中,LFM部分使用了embedding层,MLP部分使用了多个全连接层,GRU部分使用了一个GRU层,输出层使用了一个全连接层。在前向传播中,用户和物品的embedding首先被拼接起来,然后通过MLP层得到一个向量,然后通过GRU层得到状态,最后通过输出层得到评分预测值。 需要注意的是,此代码实现并没有包含训练过程和数据预处理过程,需要根据具体需求进行补充。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值