推荐算法
sixgold
北邮在读研究生,目前是推荐算法方向~
展开
-
神经网络优化的方法-梯度、超参数
神经网络优化方法一:使用正则化技巧提高模型的泛化能力二:梯度优化三:网络初始化技巧和超参数调优一:使用正则化技巧提高模型的泛化能力常用的正则化方法如下所示:L1、L2 正则化dropout 正则化Data Augmentation 增加训练样本Early stopping 选择合适的迭代训练次数二:梯度优化常用的梯度优化方法如下:梯度下降随机梯度下降 (SGD)动量梯度下降 (Momentum GD)AdaGradRMSpropAdam三:网络初原创 2020-06-25 19:52:12 · 782 阅读 · 0 评论 -
推荐系统技术演进趋势:从召回到排序再到重排
这里参考张俊林老师的文章链接架构介绍推荐系统架构介绍召回:缩小可选集粗排:有时候因为每个用户召回环节返回的物品数量还是太多,怕排序环节速度跟不上,所以可以在召回和精排之间加入一个粗排环节,通过少量用户和物品特征,简单模型,来对召回的结果进行粗略的排序,在保证一定精准的前提下,进一步减少往后传送的物品数量,粗排往往是可选的,可用可不同,跟场景有关。精排:使用你能想到的任何特征,可以上你能承受速度极限的复杂模型,尽量精准地对物品进行个性化排序。重排:传统地看,这里往往会上各种技术及业...转载 2020-06-13 15:00:08 · 1897 阅读 · 0 评论 -
推荐算法中点击率CTR修正方法—威尔逊区间
由于原始CTR计算方式只考虑了相对值,没有考虑绝对值。即,没有考虑曝光的数值大小,在曝光少的情况下,计算出的CTR其实不可靠,样本充足的情况下,才能反应真实情况举例:A:点击数 5 曝光数 10B:点击数 50 曝光数 100C:点击数 500 曝光数 1000此三个广告的CTR 都是 0.5 ,但是按照实际表现,从置信的角度分析,应该是C > B > A,因为C的样本数更多,可信度更高。为了衡量样本数对于 CTR 置信区间的影响,科学家们引入"威尔逊(Wilson)区间"的概念。公原创 2020-06-13 14:55:43 · 1033 阅读 · 0 评论 -
Graph embedding之Deepwalk算法原理,实现和应用
目录图神经网络DeepWalk 算法原理DeepWalk算法图网络现在非常的流行,应用场景也十分的广泛,在推荐领域应用也十分广泛,在召回阶段graph-embedding是很有效的一种方式。以下内容参考浅梦大神的笔记。图神经网络主要包括Graph Embedding(基于随机游走)和Graph CNN(基于邻居汇聚)两部分。这里先看下Graph Embedding的相关内容。Graph Embedding技术将图中的节点以低维稠密向量的形式进行表达,要求在原始图中相似(不同的方法对相似的定义不同)的节原创 2020-05-28 16:14:56 · 1763 阅读 · 0 评论 -
推荐算法多任务学习的几种方式
文章目录阿里 ESMM阿里 DUPN美团"猜你喜欢" 深度学习排序模型Google MMoE阿里 ESM2YouTube 多目标排序系统美图小结推荐系统中如果只优化ctr,那么有很多已有的ctr预估模型可以做。但是往往一个优秀的推荐系统除了ctr外还有很多优化的目标,比如观看时长、收藏率、转发率等,那么能训练一个模型,对多个目标同时优化呢。本文将总结一些该方面的成果和实践阿里 ESMM论文名:Entire Space Multi-Task Model: An Effectiv...原创 2020-05-23 20:51:29 · 1364 阅读 · 0 评论 -
图神经网络的介绍之GraphSAGE
目录GraphSAGEGraphSAGE算法原理采样邻居顶点生成向量的伪代码聚合函数的选取MEAN aggregatorPooling aggregatorLSTM aggregator参数的学习GraphSAGEGCN是一种在图中结合拓扑结构和顶点属性信息学习顶点的embedding表示的方法。然而GCN要求在一个确定的图中去学习顶点的embedding,无法直接泛化到在训练过程没有出现过的...原创 2020-05-05 15:42:57 · 3385 阅读 · 2 评论 -
如何理解推荐系统离线和线上auc和线上点击率不一致的问题?
目录1. 特征/数据出现穿越2. 线上线下特征不一致3. 数据分布的不一致离线指标和线上指标不一致是个常见的问题,花了很大力气好不容易离线auc涨了不少,上线一看效果ctr和cpm反而下降。本文例举几种可能的原因和解决办法。1. 特征/数据出现穿越一般就是使用了和label强相关的特征导致的数据泄漏。这种问题一般相对好查,很多时候在离线阶段就能发现。明显的表现就是训练集和测试集差异比较大2...原创 2020-04-24 22:23:48 · 2626 阅读 · 0 评论