第 3 章 基础推荐算法

原文

相关性召回+点击率排序

推荐逻辑流程架构

根本任务: 匹配

匹配过程步骤:

  1. 相关性召回, 对用户做360度全方位扫描, 尽量多的描述和覆盖用户可能感兴趣高质量的物品;
  2. 候选集融合, 重点关注多样性和相关性的均衡, 召回算法的优先级等问题;
  3. 结果排序, 按照某一确定目标进行排序;
  4. 业务干预

推荐系统的逻辑流程图

分层明确的逻辑架构, 有利于项目整体的并行化和效果调优的并行化;

召回算法的基本逻辑

匹配的常用计算路径:

  1. 直接计算用户与物品的相关性;
  2. 用户到物品的行为权重+物品与物品的相关性 => 用户与物品的相关性; (基于物品的协同过滤(Item-based CF)算法)
  3. 用户与用户的相关性+用户到物品的行为权重 => 用户与物品的相关性; (基于用户的协同过滤(User-based CF)算法)
  4. 用户与标签的相关性+标签与物品的相关性 => 用户与物品的相关性;

相关性, 由算法计算出的相关性, 认为是一种复杂相关性静态相关性;

行为权重, 根据用户与物品之间产生的行为关系计算出的一种时效性较短的相关性, 认为是一种简单相关性动态相关性;

常用的基础召回算法

用户与物品的相关性

基于矩阵分解的算法, 隐语义模型(Latent Factor Model, LFM), 将用户与物品之间的关系, 建模为 “用户到隐特征 + 隐特征到物品” 的链条, 然后通过求解隐特征信息来求解整个链条;

矩阵 R R R 表示用户对物品行为的原始矩阵
R = { r 1 , 1 r 1 , 2 ⋯ r 1 , I r 2 , 1 r 2 , 2 ⋯ r 2 , I ⋮ ⋮ ⋱ ⋮ r U , 1 r U , 2 ⋯ r U , I } R = \left\{ \begin{matrix} r_{1,1} & r_{1,2} & \cdots & r_{1,I} \\ r_{2,1} & r_{2,2} & \cdots & r_{2,I} \\ \vdots & \vdots & \ddots & \vdots \\ r_{U,1} & r_{U,2} & \cdots & r_{U,I} \\ \end{matrix} \right\} R=r1,1r2,1rU,1r1,2r2,2rU,2r1,Ir2,IrU,I
每一行表示一个用户, 每一列表示一个物品, 每个元素 R u , i R_{u,i} Ru,i 表示用户 u u u 对物品 i i i 的行为;

矩阵分解则是分解为:

R ≈ X T × Y X = { x 1 , 1 x 1 , 2 ⋯ x 1 , U x 2 , 1 x 2 , 2 ⋯ x 2 , U ⋮ ⋮ ⋱ ⋮ x K , 1 x K , 2 ⋯ x K , U } , Y = { y 1 , 1 y 1 , 2 ⋯ y 1 , I y 2 , 1 y 2 , 2 ⋯ y 2 , I ⋮ ⋮ ⋱ ⋮ y K , 1 y K , 2 ⋯ y K , I } R \approx X^T×Y \\ X =\left\{ \begin{matrix} x_{1,1} & x_{1,2} & \cdots & x_{1,U} \\ x_{2,1} & x_{2,2} & \cdots & x_{2,U} \\ \vdots & \vdots & \ddots & \vdots \\ x_{K,1} & x_{K,2} & \cdots & x_{K,U} \end{matrix} \right\}, Y =\left\{ \begin{matrix} y_{1,1} & y_{1,2} & \cdots & y_{1,I} \\ y_{2,1} & y_{2,2} & \cdots & y_{2,I} \\ \vdots & \vdots & \ddots & \vdots \\ y_{K,1} & y_{K,2} & \cdots & y_{K,I} \end{matrix} \right\} RXT×YX=x1,1x2,1xK,1x1,2x2,2xK,2x1,Ux2,UxK,U,Y=y1,1y2,1yK,1y1,2y2,2yK,2y1,Iy2,IyK,I

X 矩阵每一列表示一个用户, Y 矩阵每一列表示一个物品; 每一行均表示一个隐类别;

优点:

  • 发现人工没有找出的类别;
  • 更好适应数据变化; 根据用户的行为以及行为之间的关系找到隐类别, 时效性比较强;
  • 将用户, 物品与隐类别之间的关系进行量化;

缺点: 隐特征缺乏直接的解释, 导致隐变量这个中间数据难易复用, 有效数据只有最终的用户和物品的数据;

LFM 思路: 先得到用户和物品的原始行为矩阵, 然后借助矩阵中有值(有行为)的元素来计算求解两个隐变量矩阵的值, 再用隐变量反过来求解缺失值元素的值, 从而得到推荐结果;

衍生出的相关模型: pLSA, LDA, 词嵌入, 句嵌入, 文档嵌入等;

LFM 求解 X, Y 转化为以下式子的优化问题(损失函数):
L = ∣ ∣ R s a m p l e − ( X T × Y ) s a m p l e ∣ ∣ F 2 L = || R_{sample} - (X^T×Y)_{sample} ||_F^2 L=Rsample(XT×Y)sampleF2

∣ ∣ M ∣ ∣ F 2 ||M||_F^2 MF2 是矩阵 M M M 的 Frobenius 范数(F-范数)的平方, 表示矩阵中每个元素的平方和;
M = [ a i , j ] m × n ∣ ∣ M ∣ ∣ F = ∑ i , j a i , j 2 M = [a_{i,j}]_{m×n}\\ ||M||_F = \sqrt{\sum_{i,j}{a_{i,j}^2}} M=[ai,j]m×nMF=i,jai,j2
sample 下标代表矩阵中的样本集;

目标: 损失函数 L 取得最小值的 x u , k x_{u,k} xu,k, y i , k y_{i,k} yi,k:
L = ∑ u , i ∈ s a m p l e ( r u , i − ∑ k ( x u , k × y i , k ) ) 2 L = \sum_{u,i \in sample }(r_{u,i} - \sum_{k}(x_{u,k} × y_{i,k}))^2 L=u,isample(ru,ik(xu,k×yi,k))2
单纯优化上式可能会出现过拟合现象, 所以加入正则化项:
L = ∑ u , i ∈ s a m p l e ( r u , i − ∑ k ( x u , k × y i , k ) ) 2 + λ ( ∑ x i , j 2 + ∑ y i , j 2 ) L = \sum_{u,i \in sample }(r_{u,i} - \sum_{k}(x_{u,k} × y_{i,k}))^2 + \lambda(\sum{x_{i,j}^2}+\sum{y_{i,j}^2}) L=u,isample(ru,ik(xu,k×yi,k))2+λ(xi,j2+yi,j2)
其中, λ \lambda λ 是正则化参数, 代表正则化力度;

求解方法有两种:

基于梯度下降的方法

随机梯度下降法(Stochastic Gradient Descent, SGD), 每次随机找一条训练样本, 求得其梯度, 然后将参数向梯度的反方向前进一步, 不断重复该过程, 求得一组结果稳定的参数值;

求两组参数 x u , k x_{u,k} xu,k y i , k y_{i,k} yi,k 的偏导数:
Δ L Δ x u , k = − 2 ( r u , i − ∑ ( x u , k × y i , k ) ) y i , k + 2 λ x u , k Δ L Δ y i , k = − 2 ( r u , i − ∑ ( x u , k × y i , k ) ) x u , k + 2 λ y i , k \frac{\Delta L}{\Delta x_{u,k}} = -2(r_{u,i}-\sum(x_{u,k} \times y_{i,k}))y_{i,k} + 2\lambda x_{u,k} \\ \frac{\Delta L}{\Delta y_{i,k}} = -2(r_{u,i}-\sum(x_{u,k} \times y_{i,k}))x_{u,k} + 2\lambda y_{i,k} Δxu,kΔL=2(ru,i(xu,k×yi,k))yi,k+2λxu,kΔyi,kΔL=2(ru,i(xu,k×yi,k))xu,k+2λyi,k
根据上面的梯度求得参数的前进方向:
x u , k = x u , k + α ( ( r u , i − ∑ ( x u , k × y i , k ) ) y i , k − λ x u , k ) y i , k = y i , k + α ( ( r u , i − ∑ ( x u , k × y i , k ) ) x u , k − λ y i , k ) x_{u,k} = x_{u,k} + \alpha((r_{u,i} - \sum(x_{u,k} \times y_{i,k}))y_{i,k} - \lambda x_{u,k}) \\ y_{i,k} = y_{i,k} + \alpha((r_{u,i} - \sum(x_{u,k} \times y_{i,k}))x_{u,k} - \lambda y_{i,k}) xu,k=xu,k+α((ru,i(xu,k×yi,k))yi,kλxu,k)yi,k=yi,k+α((ru,i(xu,k×yi,k))xu,kλyi,k)
可以先将 x u , k x_{u,k} xu,k y i , k y_{i,k} yi,k 随机初始化, 然后按上面公式不断迭代;

其中三个参数 λ \lambda λ(正则化系数) , α \alpha α(学习率) , K K K(隐特征) 都需要反复试验来确定最优值;

不基于梯度的交替最小二乘法

交替最小二乘法(ALS), 将两组参数交替保持一组固定不变, 来优化另外一组;

引入新变量: c u , i = 1 + α r u , i c_{u,i} = 1+\alpha r_{u,i} cu,i=1+αru,i

优化目标变更为:
L = ∑ u , i c u , i ( r u , i − ∑ ( x u , k × y i , k ) ) 2 + λ ( ∑ x i , j 2 + ∑ y i , j 2 ) L = \sum_{u,i} c_{u,i} (r_{u,i} - \sum(x_{u,k} \times y_{i,k}))^2 + \lambda(\sum{x_{i,j}^2}+\sum{y_{i,j}^2}) L=u,icu,i(ru,i(xu,k×yi,k))2+λ(xi,j2+yi,j2)

  • 增加 c u , i c_{u,i} cu,i 参数, 让每条样本都有不同的权重;
  • 所有数据参与计算, 移除 sample 下标;

改写向量形式:
L = ∑ u , i c u , i ( r u , i − x u T y i ) 2 + λ ( ∑ u ∣ ∣ x u ∣ ∣ 2 + ∑ i ∣ ∣ y i ∣ ∣ 2 ) L = ∑ u = 0 , i = 0 u = m , i = n ( c u , i ( r u , i − x u T y i ) 2 + λ ( ∣ ∣ x u ∣ ∣ 2 + ∣ ∣ y i ∣ ∣ 2 ) ) L = \sum_{u,i}c_{u,i}(r_{u,i} - x_u^Ty_i)^2 + \lambda(\sum_u{||x_u||^2 + \sum_i{||y_i||^2}}) \\ L = \sum_{u=0,i=0}^{u=m,i=n}(c_{u,i}(r_{u,i} - x_u^Ty_i)^2 + \lambda({||x_u||^2 + {||y_i||^2}})) L=u,icu,i(ru,ixuTyi)2+λ(uxu2+iyi2)L=u=0,i=0u=m,i=n(cu,i(ru,ixuTyi)2+λ(xu2+yi2))
通过微积分运算求得解析解:
x u = ( Y C u Y T + λ I ) − 1 Y C u R u y i = ( X C i X T + λ I ) − 1 X C i R i x_u = (YC^uY^T + \lambda I)^{-1}YC^uR_u \\ y_i = (XC^iX^T + \lambda I)^{-1}XC^iR_i xu=(YCuYT+λI)1YCuRuyi=(XCiXT+λI)1XCiRi

物品与物品的相关性

从根本逻辑上划分算法:

  • 基于行为的算法
    • 以余弦相似度为代表的相似度算法
    • 以 Apriori 与 FP-Growth 为代表的关联规则算法
  • 基于内容的算法(后面介绍)

关联规则算法是对数据做了严格限制, 比如限制分析一次购物涉及的物品之间的关系, 计算出的数据相关性会更强, 由于使用了更少的数据而导致覆盖率较差;

相似度算法则是分析一段时间内购买行为数据, 相关性上有所牺牲, 但会有更好的多样性和覆盖率;

可以说相似度算法是一种广义的关联规则算法;

两个 N 维向量 X ( X = ( x 1 , x 2 , … , x N ) T X=(x_1, x_2, \dots, x_N)^T X=(x1,x2,,xN)T)和 Y ( Y = ( y 1 , y 2 , … , y N ) T Y=(y_1, y_2, \dots, y_N)^T Y=(y1,y2,,yN)T) 的余弦相似度:
c o n s i n e ( X , Y ) = X Y ∣ ∣ X ∣ ∣ ∣ ∣ Y ∣ ∣ = ∑ i = 1 N X i Y i ∑ i = 1 N X i 2 ∑ i = 1 N Y i 2 consine(X, Y) = \frac{XY}{||X||||Y||} = \frac{\sum_{i=1}^NX_iY_i}{\sqrt{\sum_{i=1}^N X_i^2}\sqrt{\sum_{i=1}^N Y_i^2}} consine(X,Y)=XYXY=i=1NXi2 i=1NYi2 i=1NXiYi
大数据稀疏情况下会造成两个层面的浪费:

  • 物品对层面的浪费: 每个用户只会对少量物品产生行为;
  • 点积层面的浪费: 少量用户同时对两个物品产生行为;

采用剪枝优化,

  • 分子, 同时对物品 i 和物品 j 产生过行为的用户数, intersect(i, j);
  • 分母, 物品 i 和物品 j 对应的向量长度, 即对物品 i 和物品 j 产生过行为的用户数, count(i), count(j);

优化后的计算流程:

  1. 将用户到物品的行为原始数据转为物品到用户的倒排表;
  2. 遍历倒排表得到所有的 intersect(i, j), 和所有的 count(i);
  3. 使用 intersect(i,j) 和 count(i) 计算物品 i 和物品 j 之间的非零相似度;

用户与用户的相关性

同物品与物品的相关性计算方法, 将用户和物品位置互换即可;

一般网站, 用户数的量级要比物品数的量级大, 增加了用户之间相关性计算的复杂度; 所以要考虑业务特点和规模;

小结

以上介绍的方法都是基于用户行为的召回算法, 存在如下问题:

  • 依赖用户行为, 扩展能力差(冷启动和时效性);
  • 缺乏抽象, 知其然不知其所以然;
  • 长尾挖掘能力差与滞后性, 直接依赖用户行为的算法, 也称基于记忆的算法, 对于新物品或长尾物品不利;

以下介绍基于用户画像(标签)的算法;

用户与标签的相关性

用户标签来源:

  • 根据行为分析; => 行为权重+时间衰减;
  • 根据行为分析+相关性; => 在1基础上再考虑标签的相关性;
  • 不直接依赖用户行为, 用户本身属性; => 用户主动填写高权重, 算法推测低权重;

标签与物品的相关性

  • 类别到物品, 常用方法是在召回热品, 新品或质量高的物品时, 加入一些品类下的重点物品; 过程中最好加入一些随机因素;
  • 语义主题到物品, LDA, 通过贝叶斯公式得到每个主题下不同物品的概率 P ( d o c i ∣ t o p i c ) = P ( t o p i c ∣ d o c i ) P ( d o c i ) ∑ k P ( t o p i c ∣ d o c k ) P ( d o c k ) P(doc_i|topic)=\frac{P(topic|doc_i)P(doc_i)}{\sum_k{P(topic|doc_k)P(doc_k)}} P(docitopic)=kP(topicdock)P(dock)P(topicdoci)P(doci)
  • 搜索词到物品;

将用户与物品的关系拆解为多个中间相关性的组合;

冷启动场景下的推荐

  • 用户维度冷启动, 用户没有在系统中留下足够的行为;
  • 物品维度冷启动, 新物品, 还没有足够多的用户对其产生行为;

解决方法: 基于内容的推荐算法, 或直接推荐畅销热品或新品;

冷启动时期推荐系统的责任:

  1. 给出推荐结果;
  2. 尽快探测用户的兴趣, 推荐种类丰富的物品, 增大命中用户兴趣的可能性;

解决冷启动问题, 在推荐系统中称为 Exploration & Exploitation 问题(EE问题), 即探索与利用问题;

参考文章

  1. ALS交替最小二乘法推导
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

01码匠

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值