1.BPR代表贝叶斯个性化排序(Bayesian Personalized Ranking)
BPR是一种经典的个性化推荐算法,旨在解决推荐系统中的Top-N推荐问题。它基于隐式反馈数据,如用户点击、购买或观看历史,通过学习用户对物品的偏好来进行推荐。BPR通过最大化正确排名的概率来训练模型,它被广泛应用于社交推荐系统和其他个性化推荐场景中。
计算过程:BPR使用随机梯度下降(Stochastic Gradient Descent)方法来学习用户和物品的表示向量。具体步骤如下:
- 随机选择一个用户-物品对
作为正样本,其中用户
与物品
有交互。
- 从其他物品中随机选择一个未被用户
交互的物品
作为负样本。
- 基于用户
和物品
的表示向量计算其预测评分,并计算差异(或偏好)得分
,其中
表示用户
对物品
的实际评分,
表示用户
对物品
的实际评分。
- 根据差异得分
更新用户
和物品
的表示向量,以最大化正确排名的概率。
- 重复执行步骤1至4,直到达到收敛条件或训练轮次。
损失函数:BPR使用Pairwise Ranking Loss作为其损失函数,目标是最大化正确排名的概率。损失函数定义如下: 其中,σ(x)是Sigmoid函数,用于将差异得分映射到[0, 1]之间的概率值。
2.iMF代表因式分解机(Matrix Factorization)
iMF是一种基于矩阵因式分解的个性化推荐算法。它将用户-物品交互矩阵分解为用户因子矩阵和物品因子矩阵,通过学习这些因子来捕捉用户和物品之间的潜在关系。iMF通常用于解决推荐系统中的评分预测问题,即预测用户对尚未交互的物品的评分。
计算过程:iMF通过将用户-物品交互矩阵分解为用户因子矩阵和物品因子矩阵来学习用户和物品的表示向量。具体步骤如下:
- 初始化用户因子矩阵U和物品因子矩阵V,并设定潜在特征维度。
- 使用交替最小二乘法(Alternating Least Squares, ALS)或随机梯度下降(Stochastic Gradient Descent, SGD)等优化算法,迭代更新用户因子矩阵U和物品因子矩阵V,以最小化重构误差。
- 重复执行步骤2,直到达到收敛条件或训练轮次。
损失函数:iMF使用均方根误差(Root Mean Square Error, RMSE)作为其损失函数,目标是最小化模型预测评分与实际评分之间的差异。损失函数定义如下:其中,
表示用户
对物品
的实际评分,
表示模型预测的用户
对物品
的评分,N表示训练样本数量。