论文笔记【Factorization Machines】

标题 * 表示未完成

  1. 本文模型及方法
  • 对于一般的LR模型来说,模型形式如下:
    在这里插入图片描述
    此时为 order-1 (一阶特征),那么 order-2 如何表示呢?如下:
    在这里插入图片描述
    该 order-2 模型与 order-1 的标准LR模型相比,对每个二阶交叉特征都配备了权重 w ^ \hat{w} w^,难以学习,泛化能力比较弱,特别是在大规模稀疏特征场景下,问题尤为突出。

  • FM模型
    FM模型为了解决此类问题,提出以下的模型表示。(此处以二阶为例)向量 v i v_i vi v j v_j vj分别是特征 x i x_i xi x j x_j xj对应的低维稠密隐向量
    在这里插入图片描述
    可以发现FM模型中包含传统的LR模型,之后将超参数 w ^ \hat{w} w^改写成了 v i v_i vi v j v_j vj的点积。即如同SVM的核函数分解那样,令 W = V ⋅ V T W = V \cdot{V^T} W=VVT

  • 上式在论文中继续被优化
    在这里插入图片描述
    下图讲解来自知乎:正在打开传送门!
    在这里插入图片描述

  • FM与MF相比
    MF(矩阵分解)的思想可以被看做一个大的矩阵 R 等于 两个小矩阵 U 、 I U、I UI的乘积。
    而矩阵分解中SVD分解方式是最具有代表性的。其方程如下。
    R = A B C T R = ABC^T R=ABCT
    R为 m × n m \times n m×n ;A为 m × m m \times m m×m ;B为 m × n m \times n m×n ;C为 n × n n \times n n×n

    这里将 A B AB AB看做 U U U C T C^T CT看做 I I I,即:
    R = U T S = < U , S > R = U^TS = <U,S> R=UTS=<U,S>
    是不是很眼熟,这就是上面所说的FM中对二阶特征建模的部分,所以可以说MF是FM的特例。

    文章中指出将User与Movie矩阵看做一个矩阵,如下。
    在这里插入图片描述
    此时 x ( i ) x^{(i)} x(i)为一个特征,按照FM方程可以得到:
    在这里插入图片描述
    x i x_i xi为1时可以计算,其它为0时直接忽略。 w u w_u wu表示在位置 u u u x u x_u xu不为0.
    这样就变成了带有偏置信息的SVD了,带有偏置信息SVD基础上加上用户历史评过分的电影ID,就是SVD++;带有偏置信息SVD基础上加上时间信息就是time-SVD。

  • N维FM方程
    在这里插入图片描述

  1. 实验结果
  • FM优点:
    从理论上解决了高维特征组合提取的问题,即使在高稀疏矩阵下也可以做到。
    经过方程优化后,参数与预测时间及模型学习时间都是线性的。

  • END

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值