Datawhale-深度推荐模型
文章平均质量分 95
Joyeeee.
这个作者很懒,什么都没留下…
展开
-
深度推荐模型 - DIN
DIN文章目录DIN提出背景DIN模型的数据集和特征表示基线模型Embedding layerPooling layer and Concat layer损失函数base模型存在的问题 & 改进思路DIN模型架构DIN实现上的细节提出背景Deep Interest Network(DIN)是阿里巴巴在2018年提出的,该模型更加具有业务气息。应用场景是阿里巴巴的电商广告推荐业务。DIN这个模型应用了注意力机制来对用户的兴趣动态模拟。这个应用场景的最重要的特点是:有大量的用户历史行为信息。之前原创 2021-03-27 05:33:52 · 342 阅读 · 0 评论 -
深度推荐模型 -NFM
NFM文章目录NFM提出背景 & 与其他模型的关系FM回顾NFM公式NFM网络总体结构网络各层的详细解释Input层和Embedding层Bi-Interaction Pooling layer隐藏层预测层小结参考推荐系统遇上深度学习(七)–NFM模型理论和实践提出背景 & 与其他模型的关系NFM这个模型是在FM的基础上提出的,是为了改进FM模型只能表达特征之间两两组合之间的关系,无法建模两个特征之间深层次的关系或者说多个特征之间的交互关系,同时为了建模更高阶的特征而提出的。NFM是原创 2021-03-22 15:59:06 · 1019 阅读 · 0 评论 -
深度推荐模型 - DeepFM
DeepFM文章目录DeepFM之前的模型的缺点和局限线性模型的局限性多项式模型的问题DNN的局限性FM(因子分解机)FFMFNN & PNNWide & DeepDeepFM 的结构和原理FM LayerDeepDeep FM模型的优点思考题如果对于FM采用随机梯度下降SGD训练模型参数,请写出模型各个参数的梯度和FM参数训练的复杂度。对于下图所示,根据你的理解Sparse Feature中的不同颜色节点分别表示什么意思SVM与FM的区别参考:论文原文FM、FFM、DeepFM学习原创 2021-03-20 14:23:25 · 466 阅读 · 0 评论 -
深度推荐模型 -Day 2
Wide & Deep Model文章目录Wide & Deep Model为什么要提出 Wide & Deep 模型?模型结构及原理Wide部分交互特征优化器:带L1L_1L1正则的FTRL算法Deep部分Wide 与 Deep 结合思考题为什么要提出 Wide & Deep 模型?传统的“特征海洋”战术实际上是一个很“宽”的模型,利用手工构造的交叉组合特征来使线性模型具有“记忆性”,使模型记住共现频率较高的特征组合,往往也能达到一个不错的baseline,且可解释原创 2021-03-18 23:43:20 · 153 阅读 · 0 评论 -
深度推荐模型 -Day1
DeepCrossingEmbedding Layer通常用于模型第一层,其目的是将所有索引标号(正整数)映射到致密的低维向量中,比如文本集[[4],[32],[67]]被映射为[[0.3,0.9,0.2],[-0.2,0.1,0,8],[0.1,0.3,0.9]]。本质上是用连续空间替代(准)离散空间,以增加空间利用率,减少不必要的参数。优点:来自深度学习中Embedding层有什么用?使用One-hot 方法编码的向量会很高维也很稀疏。假设我们在做自然语言处理(NLP)中遇到了一个包含200原创 2021-03-16 23:57:43 · 185 阅读 · 0 评论