![4419a765bf25fe0e7107ce3e398ce168.png](https://i-blog.csdnimg.cn/blog_migrate/00f16308470d778efb32e14827f37b70.jpeg)
本篇主要总结如下内容:
1.embedding 是什么
2.pytorch中embedding的实现举例
3.tensorFlow中embedding的实现举例
1.embedding 是什么
前段时间写了一篇
hellodata:ctr深度模型中的核心问题及pytorch实现学习笔记zhuanlan.zhihu.com![fdffa1f3aff73db349a3c8e05a7a43cc.png](https://i-blog.csdnimg.cn/blog_migrate/831c679a8e995eed44408dabde69fcd9.jpeg)
,在这篇把embedding这部分给遗漏,现补充下这块。
在wide&deep,deepfm,dcn,xdeepfm等算法中很重要的一项就是embedding操作,embedding是模型的第一层。可以简单的理解为,将一个特征转换为一个向量。对于离散变量,我们一般的做法是将其转换为one-hot,但对于itemid这种离散变量,转换成one-hot之后维度非常高,但里面只有一个是1,其余都为0。。比如有1000个不同的词,那么使用one-hot这样的方法效率就很低了,所以我们必须要使用另外