自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 【学习笔记】推荐中的user信息表征

一般来说,推荐场景下item_id的自监督数据量比user_id大得多,所以item_id的embedding表示能够很好的表示item的信息。但是相比之下user_id的embedding容易过拟合,一般user侧还会添加其他特征。1、基本属性(长期特征):人口统计特征(年龄、性别、职业等);长期偏好,比如长期的偏好的item的标签众数等2、行为特征长期和短期的点击item序列编码的方法有max/mean/sum pooling等或者深度学习方法:DIN -> DIEN -> D

2020-08-13 22:29:14 311

原创 LTR问题 position debias方法

LTR中的一个常见问题就是position debias,在面试诸如推荐、搜索这样的职位的时候很有可能被问到。所谓position bias就是指,当给用户展现搜索和推荐结果时,用户倾向于点击第一个item的这个行为里面,既有item的质量的影响,还有item排在第一个这个事件本身的影响。所以直接从原始log的数据中学习排序模型的学到的结果是有偏的。那么解决这种bias的方法主要有一下几种:1、样本安排的trick:a. 正样本后的样本都不算到训练样本中,如下图所示。这样就不会计算正样本后的样本,因为

2020-08-13 16:44:47 1046

原创 关于交叉熵下softmax和sigmoid的求导

原创不易,转载请注明出处 ^ _ ^1、 交叉熵 + sigmoid 反向传播sigmoid函数:这里xxx表示神经网络最后一层输出的一个神经元的激活值σ(x)=11+exp(−x)\sigma(x) = \frac{1}{1+exp(-x)}σ(x)=1+exp(−x)1​sigmoid函数对xxx求导:∂σ(x)∂x=σ(x)(1−σ(x))\frac{\partial{\sigma(x)}}{\partial{x}} = \sigma(x)(1-\sigma(x))∂x∂σ(x)​=σ(

2020-08-13 11:01:56 2064

原创 深入理解实际场景下 AUC vs F1 的区别——不说废话

面试的时候经常被问的一个问题是 AUC和F1 score有什么区别。笔者看了很多博文,感觉相当一部分在分析混淆矩阵和auc、f1的定义上花了太多笔墨,但对于两者的区别和联系,有种到了门前就差临门一脚的感觉。因此笔者去stack overflow上找了很多回答,感觉收获很多,在此简明扼要的写一下收获。如有纰漏欢迎指正。1、定义:AUC的优化目标:TPR和(1-FPR)F1的优化目标:Recall和Precision这里不再对混淆矩阵(TP、FP、TN、FN)相关的一些很细的概念做详细解释,推荐去看一下

2020-08-10 16:16:32 19848 14

转载 【转载】Transformer vs CNN vs RNN 时间复杂度比较

内容本身来自于《Attention Is All You Need》原论文以下翻译转载自https://www.cnblogs.com/nxf-rabbit75/p/11945195.html一、问题限定及结论:假设输入序列长度为n,每个元素的维度为????:{????1,…,????????},输出序列长度也为n,每个元素的维度也是d:{????1,…,????????},从每层的计算复杂度、并行的操作数量、学习距离长度三个方面比较Transformer、CNN、RNN三个特征提取器:二、分析

2020-07-30 15:21:50 4841 1

原创 Transformer《Attention Is All You Need》阅读笔记

Transformer可以说是NLP划时代的论文,之后的bert等模型都借鉴了Transformer的attention机制

2020-07-24 14:44:56 336

原创 BERT 基于transformer的语言模型 阅读笔记

bert模型的初衷通过预训练为无标记的文本提供基于上下文信息的双向特征表征。实验证明,bert模型的结果只需要通过fine-tune输出层就能在很多nlp问题上取得非常不错的效果,大幅提高了很多nlp任务的分数

2020-07-24 14:44:47 563

原创 推荐系统冷启动的解决方案

冷启动问题是推荐算法或者计算广告算法岗位的面试官经常会问到一个问题,因此在这里做一个总结。结论:冷启动包括用户的冷启动、物品的冷启动和整个系统的冷启动针对冷启动问题的解决方案大概分为三类:基于规则、基于特征、迁移学习。1、基于规则:基于规则的方法实际上就是前推荐系统时代进行内容分法的方法。比如使用最高评分榜、近期热门榜作为新用户的推荐;或者更进一步,根据用户注册时提供的一些基本信息,设置差异化的启动榜单物品角度的基本思路大致相同,比如按照物品的一些基本属性进行k近邻,以距离最近的一些物品的推荐逻

2020-07-07 22:18:41 965

原创 动态规划典型题:给定正整数n,将其划分为正整数的和,求划分方法数

动态规划:整数划分数之有限制与无限制整数划分是一类常见的动态规划问题,但是根据条件不同会导致细节上的差异。写这篇博文是自己找这类问题的解法时发现如果不注意这些细节可能会导致错误,所以做一个区分。1、无限制划分这类问题的最常规呈现形式是:(1)给定一个正整数n,将其划分为正整数的和,求有多少种划分方法即将n表示为n=m1+m2+…+mi; (其中mi为正整数,并且1 <= mi &l...

2020-03-18 14:16:42 2076

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除