FM的DNN实现——隐向量可以认为就是embedding学习的权重

本文介绍了如何从深度学习的角度理解FM模型,特别是隐向量实际上等同于embedding学习的权重。通过DeepFM论文中的解释,详细解析了FM层的计算方法,将高维稀疏输入向量转化为低维密集嵌入向量的过程,并提供了基于公式实现的代码思路。
摘要由CSDN通过智能技术生成

之前一直在思考怎么实现FM,后来在看DeepFM的时候,被一句话点醒,如下。
DeepFM论文中有这么一句话:

the latent feature vectors (V ) in FM now server as network weights which
are learned and used to compress the input field vectors to the
embedding vectors.

就是说,FM层的隐向量现在其实就是将高维稀疏输入向量x(one-hot编码)转换为低维密集的嵌入向量的embedding矩阵
在这里插入图片描述
下面这个是FM论文中的给出的计算方法,代码也是根据这个公式实现的。
在这里插入图片描述
首先input的形状是(batch_size, max_len, embedding_size)
i i i行就代表 v i x i v_ix_i vixi( x i x_i xi就是你输入的one-hot,第 i i i个维度上是1,其余是0, v i v_i v

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值