随着Attention出现NFM简单暴力相加很明显不太好,因为各种特征组合的权重应该是有重要性区别的,因此可以引入Attention机制在加权的时候赋予不同的权值
最终输出两部分的结果加和
Attention Neural Factorization Machines (AFM)
最新推荐文章于 2024-07-25 19:51:53 发布
随着Attention出现NFM简单暴力相加很明显不太好,因为各种特征组合的权重应该是有重要性区别的,因此可以引入Attention机制在加权的时候赋予不同的权值
最终输出两部分的结果加和