【论文导读】AFM---Attention与FM的碰撞

前言

本次分享一篇依旧是2017年由何向南教授团队发表的《Attentional Factorization Machines: Learning the Weight of Feature Interactions via Attention Networks》。本文的模型AFM主要聚焦于attention模型,文章末尾给出了该模型的复现代码。

本文约1.2k字,预计阅读10分钟。

AFM

AFM模型与NFM一样,也是何向南教授团队在2017年推出的模型,与NFM模型基本类似。但是NFM是通过一个sum pooling将所有的embedding向量进行聚合,它相当于每个向量具有相同的重要程度,如此会减弱其中具有重要信息的向量。因此AFM模型,通过增加一个Attention网络用来区分不同特征的交互的重要性,来提高整个模型的性能。Introduction不在赘述,直接对其模型进行剖析。

模型结构

Input与Embedding层

输入指的是稀疏特征,Embedding层与FM相同,都是将输入特征的稀疏表示映射到非零特征的密集型向量。

【注】:目前介绍过的模型大部分都是如此。

Pair-wise Interaction层

FM模型使用的是对每一对特征向量使用内积进行交互。受FM启发,作者提出了一个Pair-wise Interaction层,用来对每对Embedding向量进行各个元素对应相乘(element-wise product)交互【此处与NFM相同】。因此,若有 个特征向量的话,那就会产生 个交互向量。对其进行公式化,令非零特征向量 ,对应Embedding向量为

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值