ALS(Alternating Least Squares)

ALS(Alternating Least Squares)算法是基于矩阵分解的协同过滤算法中的一种,它已经集成到 Spark 的 Mllib 库中,使用起来比较方便。

1.矩阵分解
这里的矩阵分解可以理解为,将一个 m×n 的矩阵A分解为一个m×k的矩阵U和n×k的矩阵V的转置的乘积的近似值,即
                   A_{m×n} \approx U_{m×k} \times V_{n×k}^T

将这个公式放到推荐系统中,则 A_{m×n} 表示用户对产品的偏好评分矩阵,U_{m×n} 代表用户对隐含特征的偏好矩阵,V_{m×n} 表示产品所包含的隐含特征矩阵。
为了使矩阵 U 和 V 转置的乘积尽可能接近 A,我们使用用户喜好特征矩阵 U(m∗k) 中的第 i 个用户的特征向量 u_{i} ,和产品特征矩阵V(n∗k)第j个产品的特征向量 v_{j} 预测打分矩阵 A(m∗n) 中的 a_{i×j} ,需要最小化平方误差损失函数:
                  C =\sum_{i,j\in R}[(a_{ij}-u_{i}v_{j}^T)^{2}+\lambda(u_{i}^2+v_{j}^2) ]

有了损失函数之后,下面就开始介绍优化方法。通常的优化方法分为两种:交叉最小二乘法(alternative least squares)和随机梯度下降法(stochastic gradient descent)。


2.交替最小二乘法(ALS)
在开始的时候,随机初始化一个 u_{i} 的值,因此上式就变成了一个关于 v_{i} 的函数,问题转化为最小二乘问题,用最小二乘法求 v_{j}的最优解:

               这里写图片描述
其迭代步骤是:首先随机初始化 u_{i},利用上述方法更新得到 v_{j},然后利用 u_{i} 的表达式更新 u_{i},直到RMSE(均方根误差)变化很小或者到达最大迭代次数为止。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值