复习知识-机器学习
可能就是面试题哦
波波虾遁地兽
关关难过关关过,事事难为事事为
展开
-
deepctr源码学习一
deepctr源码学习一按源码里examples文件夹下的run_classification_criteo.py文件,画了deepfm的网络图和源码相应行数的对应关系,为了方便展示结构图,只取了前两个分类特征和前两个数值特征....原创 2020-04-09 21:39:59 · 723 阅读 · 0 评论 -
推荐中AB实验最大的问题——流量偏置及解决方案:重叠实验架构
推荐中AB实验最大的问题——流量偏置及解决方案:重叠实验架构原创 2020-01-16 10:38:09 · 2311 阅读 · 0 评论 -
推荐系统中用户画像
推荐系统中用户画像用户画像的构建方法1.第一类——基础信息,就是直接使用用户在注册时的原始数据,如人口统计学信息或者一些一旦发生就不再改变的行为信息,如第一次注册时间,第一次查看内容等,这部分内容也被称为静态信息(Static)。这个基础信息类似于查户口,其实没有什么技术含量,但是对于用户冷启动场景非常有用;2.第二类——行为信息,这里就是不断的堆积用户的历史行为数据,做统计,也是最常见的...原创 2019-12-29 10:37:42 · 785 阅读 · 0 评论 -
L1正则化与稀疏性
L1正则化与稀疏性L1正则化使得模型参数具有稀疏性的原理是什么?机器学习经典之作《pattern recognition and machine learning》中的第三章作出的一个解释无疑是权威且直观的,我们也经常都是从这个角度出发,来解释L1正则化使得模型参数具有稀疏性的原理。再回顾一下,以二维为例,红色和黄色的部分是L1、L2正则项约束后的解空间,蓝色的等高线是凸优化问题中的目标函数(...原创 2019-12-28 13:29:29 · 2099 阅读 · 0 评论 -
lightgbm和xgb如何处理不平衡数据的
lightgbm和xgb如何处理不平衡数据的ctr,cvr这类2分类问题的样本不平衡性行可想而知的。而lightgbm和xgb这些分类大杀器在ctr,cvr这类2分类问题中也是常用的,那问题就是这lightgbm和xgb是如何越过样本不平衡问题的?答案,lightgbm和xgb模型都有is_unbalance=True/False 、scale_pos_weight这两个参数,这两个参数二选...原创 2019-12-27 21:55:44 · 8266 阅读 · 1 评论 -
faiss入门+使用的索引原理
faiss入门+使用的索引原理原创 2019-12-25 20:00:50 · 4675 阅读 · 0 评论 -
从EM算法的典型应用GMM说起,需要知悉的几个点
从EM算法的典型应用GMM说起,需要知悉的几个点原创 2019-12-23 19:38:25 · 357 阅读 · 0 评论 -
循环神经网络复习2-seq2seq,attention,self-attention(transform)
循环神经网络复习2-seq2seq,attention,self-attention原创 2019-12-23 01:19:15 · 754 阅读 · 1 评论 -
循环神经网络复习1-RNN,LSTM,GRU(为什么讲gru,因为阿里的推荐DIEN的论文中self-attention中大量是基于GRU的)
循环神经网络复习1-RNN,LSTM,GRU(为什么将gru)因为阿里的推荐DIEN的论文中self-attention中大量是基于GRU的原创 2019-12-23 00:01:22 · 953 阅读 · 1 评论 -
light-gbm如何理解对内存利用友好,顺序访问梯度
light-gbm如何理解内存友好,顺序访问梯度原创 2019-12-19 11:01:10 · 297 阅读 · 0 评论 -
xgboost梯度计算的过程
xgboost梯度计算的过程之前对xgboost梯度计算过程有误区,这里纠正一下,并mark,提醒自己一下泰勒公式的二阶展开形式如下:f(x+Δx)≈f(x)+f′(x)Δx+f′′(x)Δx2f(x+\Delta{x}) \approx f(x)+f^{\prime}(x)\Delta{x}+f^{\prime\prime}(x)\Delta{x}^{2}f(x+Δx)≈f(x)+f′(x...原创 2019-12-19 10:15:25 · 1415 阅读 · 0 评论 -
xgboost常见面试题20道
xgboost常见面试题20道高频面试题XGB与GBDT、随机森林等模型相比,有什么优缺点?XGB为什么可以并行训练?XGB用二阶泰勒展开的优势在哪?XGB为了防止过拟合,进行了哪些设计?XGB如何处理缺失值?XGB如何分裂一个结点?如何选择特征?XGB中一颗树停止生长的条件有哪些?XGB叶子结点的权重有什么含义?如何计算?训练一个XGB模型...原创 2019-12-18 22:18:43 · 2787 阅读 · 0 评论 -
由LDA模型,追溯贝叶斯学派的概率情结和采样方法的来龙去脉
这里写自定义目录标题欢迎使用Markdown编辑器LDA功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Mar...原创 2019-12-17 20:45:55 · 330 阅读 · 0 评论 -
xgboost梳理复习总结,及常见面试题
xgboost梳理复习总结,及常见面试题原创 2019-12-18 01:26:10 · 563 阅读 · 0 评论 -
Batch-Normalization的基本动机,原理,为什么要拉伸还原,类似的还有哪些
Batch-Normalization的基本动机,原理,为什么要拉伸还原,类似的还有哪些?原创 2019-12-16 23:12:27 · 1335 阅读 · 1 评论 -
SGD方法的好处和失效的场景,以及解决办法
SGD方法的好处和失效的场景,以及解决办法SGD方法的好处是,不必计算所有样本的梯度,这样做的效果是快,快在两方面,一方面计算快,一方面是收敛快,计算快好理解,只计算了一个样本的梯度,收敛快是指,如果不是特别差的损失函数,(这里差是指难优化的意思),假设数据量100w,那么全局梯度下降更新一次梯度的计算时间,sgd已经更新了100w次,所以到达收敛状态所需的时间更短了。失效的场景:因...原创 2019-12-16 23:06:16 · 4280 阅读 · 1 评论 -
LR回归为什么需用要交叉熵损失而不用均方误差损失?
LR回归为什么需用要交叉熵损失而不用均方误差损失?原创 2019-12-16 21:12:30 · 1720 阅读 · 0 评论