隐语义模型LFM原理及Python实现

本文介绍了隐语义模型LFM(Funk-SVD)的基本原理,包括矩阵P、Q、R的分解,损失函数的构建以及通过随机梯度下降法进行求解。文中详细阐述了如何将评分矩阵R分解为用户矩阵P和物品矩阵Q,并讨论了防止过拟合的正则化项。最后,提供了相关代码实现。
摘要由CSDN通过智能技术生成

隐语义模型=Funk-SVD算法

1 矩阵P、Q、R

评分矩阵R分解成两个矩阵相乘(用户、物品隐表示矩阵P和Q)
给定F,是隐含的类别数,维度
矩阵R m×n m个用户 n个评分
矩阵P m×f 一行代表一个用户
矩阵Q f×n 一列代表一个物品
注:参考有的说明是P和Q都是m×f n×f 或者 f×m f×n,然后其中一个转置,其实含义都一样
r_ui=p_u1*q_i1+p_u2*q_i2+…+p_uf*q_if

2 损失函数

用户u对电影i的预测评分是
在这里插入图片描述
防止过拟合,加入正则化
在这里插入图片描述

3 随机梯度下降求解

①求导
在这里插入图片描述
比如3个维度f
p1 p2 p3 q1 q2 q3
前半部分 对p1求导 只有q1参数会×p1
②求导
在这里插入图片描述
在这里插入图片描述
③梯度下降多次
在这里插入图片描述)

4 代码

#初始化P Q P和Q都是F×个数
def init(train_data,test_data,F):
    sample_data=train_data.append(test_data,sort=False)
    users=list(set(sample_data['UserID']))
    movies=list(set(sample_data['MovieID']))
    users.sort()
    movies.sort()
    #R=pd.DataFrame(data=None,index=users,columns=movies)
    #for index,item in train_data.iterrows():
    #    R.loc[item['UserID']][item['MovieID']]=item['Rating']
    P=pd
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值