推荐系统笔记7-Field-aware Factorization Machines for CTR Prediction

本文详细介绍了FFM(Field-aware Factorization Machines)模型,特别强调其在点击率(CTR)预测中的优势。FFM引入了字段信息,改进了传统的FM模型,通过字段感知的方式提高模型的预测能力。文章讨论了FFM的优化问题,实验部分展示了FFM在Criteo和Avazu数据集上的优秀表现。
摘要由CSDN通过智能技术生成

本文介绍Field-aware Factorization Machines for CTR Prediction,简称为FFM,其原文Paper传送门

摘要

计算广告中CTR预估有着很重要的作用,其中二阶映射的FM常被使用,但提出的FFM在比赛中优于FM,因此引出FFM;

一、介绍

通常用LR处理分类问题,其模型是用来解决如下最优化问题:
min ⁡ w λ 2 ∥ w ∥ 2 2 + ∑ i = 1 m log ⁡ ( 1 + exp ⁡ ( − y i ϕ L M ( w , x i ) ) ) \mathop {\min }\limits_w {\lambda \over 2}{\left\| w \right\|_2}^2 + \sum\limits_{i = 1}^m {\log (1 + \exp ( - {y_i}{\phi _{LM}}(w,{x_i})))} wmin2λw22+i=1mlog(1+exp(yiϕLM(w,xi)))
在LR中 ϕ ( w , x ) = w x \phi(w,x)=wx ϕ(w,x)=wx λ \lambda λ是正则化参数;其余的介绍同以前文章的介绍,就不展开叙述了,下面具体介绍FFM模型原理;

二、POLY2 和 FM模型

论文 “Training and testing low-degree polynomial data mappings via linear SVM" 提出二阶映射可以有效捕捉特征信息,其Poly2模型如下(为了偷懒,就直接截图了):
在这里插入图片描述
其中 h ( j 1 , j 2 ) h(j_1,j_2) h(j1,j2)是一个将 j 1 和 j 2 j_1和j_2 j1j2编码到自然数的函数,其时间复杂度为 O ( n ˉ 2 ) O({ {\bar n}^2}) O(nˉ2) n ˉ {\bar n} nˉ是每个实例平均的非0元素个数;
FM是一个对每个特征学习隐层向量的模型,假设每个特征映射为k维隐层向量,其计算公式如下:
在这里插入图片描述
变量的数目是 n × k n\times k n×k,所以直接计算的时间复杂度是 O ( n ˉ 2 k ) O({ {\bar n}^2k}) O(nˉ2k),重写上面的公式为: ϕ F M ( w , x ) = 1 2 ∑ j = 1 n ( s − w j x j ) ⋅ w j x j {\phi _{FM}}(w,x) = {1 \over 2}\sum\limits_{j = 1}^n {(s - {w_j}{x_j}) \cdot {w_j}{x_j}} ϕFM(w,x)=21j=1n(swjxj)wjxj其中 s = ∑ j = 1 n w j x j s = \sum\limits_{j = 1}^n { {w_j}{x_j}} s=j=1nwjxj,此时时间复杂度变为 O ( n ˉ k ) O({ {\bar n}k}) O(nˉk);为什么FM要优于Poly2呢?见

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值