【GCN-CTR】早期工作Fi-GNN (CIKM‘19)——懂了,要用Transformer~

Fi-GNN是将特征交互建模为图神经网络的早期尝试,旨在通过GNN捕获特征间的结构特性,用于点击率预测。模型包括特征图、GNN层和预测层,其全连接特征图使用Attention计算边权重。文章提出了将Transformer视为图模型的思考,并指出端到端的GCN-CTR模型设计挑战。
摘要由CSDN通过智能技术生成

早期工作Fi-GNN

《Fi-GNN: Modeling Feature Interactions via Graph Neural Networks for CTR Prediction》CIKM’19

类似session-base RS里的SR-GNN,是GNN最早用在CTR上的模型,所以成了经典baseline。

Motivation

CTR模型的输入由以下几部分组成:用户id、用户特征、用户历史行为、物品id、物品特征。由于模型输入有特征,因此简单的 LR 模型就可以实现CTR任务,但是LR只根据一阶特征进行预测,因此大量的CTR模型都在追求有效的“特征组合”方法,以利用到“高阶特征”。

FM、FFM、Wide&Deep、DCN、xDeepFM等模型都是为了学习高阶特征而设计的,然而作者认为这些特征组合方法是“unstructured combination”的! 为了利用特征之间的结构特性,作者利用GNN来建模特征交互。

因此在这篇文章中是把一个特征field当作一个节点(也可以理解为一个特征是一个节点,因为一个field最后只产出一个embedding),构成一个Feature Graph。比如一条样本:用户id、城市、性别、职业,那么Feature Graph就有这四个节点构成,图上的边表示特征交互。

Method

image-20220217150253199

由Fi-GNN的模型图可以看出,需要重点理解的是红框内的模块,其余模块很好理解。

Feature Graph

Feature Graph是个全连通图,每个特征节点都和其他特征节点都有一条边相连(假设共 m m m 种,文章数据集种分别是23和39),边的权重是由Attention计算出来的。
w ( n i , n j ) = exp ⁡ ( LeakyRelu ⁡ ( W w [ e i ∥ e j ] ) ) ∑ k exp ⁡ ( LeakyRelu ⁡ ( W w [ e i ∥ e k ] ) ) w\left(n_{i}, n_{j}\right)=\frac{\exp \left(\operatorname{LeakyRelu}\left(\mathrm{W}_{w}\left[\mathrm{e}_{i} \| \mathrm{e}_{j}\right]\right)\right)}{\sum_{k} \exp \left(\operatorname{LeakyRelu}\left(\mathrm{W}_{w}\left[\mathrm{e}_{i} \| \mathrm{e}_{k}\right]\right)\right)} w(ni,nj)=kexp(LeakyRelu(Ww[eiek]))

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值