FM算法简述

诞生的契机

故事从LR模型说起,传统的LR模型每个特征都是相互独立的,但是我们要处理的情况往往没有这么理想,当需要考虑到特征之间的关系时,得要通过人工的方式对这些特征进行组合。除此之外,非线性SVM可以对特征进行kernel映射,但是在特征高度稀疏的情况下,学习效果并不好。其他的可以学习到特征之间关系的算法都受限于输入和使用场景,因此FM(Factorization Machine)诞生了。

来一个贴合的小栗子,比如要根据用户的各种行为特征来预测对于某部电影的喜爱程度(评分)。如下图:
图片来自https://www.cnblogs.com/AndyJee/p/7879765.html
User、Move、Last Move rated这三项都经过one-hot编码,所以本身是高度稀疏的。并且仔细查看这几项特征可以发现,其中有可能存在相关联的特征,比如当前当前打分的电影和上一步看过的电影,以及这两部提到的电影在图中黄框都有对应的评分。这样的例子屡见不鲜,有两个突出特点:特征高度稀疏且特征之间可能存在关联,这正是FM的使用范畴。

算法模型

y ( x ) : = w 0 + ∑ i = 1 n w i x i + ∑ i = 1 n ∑ j = 1 + 1 n < v i , v j > x i x j y(x):=w_0+\sum_{i=1}^{n}{w_ix_i}+\sum_{i=1}^{n}{\sum_{j=1+1}^{n}{<v_i,v_j>x_ix_j}} y(x):=w0+i=1nwixi+i=1nj=1+1n<vi,vj>xixj
w 0 ∈ R , w ∈ R n , V ∈ R n × k w_0\in{\mathbb{R}},\textbf{w}\in{\mathbb{ {R}^n}},\pmb{V}\in{\mathbb{ {R}^{n\times{k}}}} w0R,wRn,VVVRn×k
< v i , v j > : = ∑ f = 1 k

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值