机器学习
zgx_neo
不错的。2018加油!!!
展开
-
机器学习算法GBDT的面试要点总结-上篇
1.简介 gbdt全称梯度下降树,在传统机器学习算法里面是对真实分布拟合的最好的几种算法之一,在前几年深度学习还没有大行其道之前,gbdt在各种竞赛是大放异彩。原因大概有几个,一是效果确实挺不错。二是即可以用于分类也可以用于回归。三是可以筛选特征。这三点实在是太吸引人了,导致在面试的时候大家也非常喜欢问这个算法。 gbdt的面试考核点,大致有下面几个:gbdt 的算法的流程?gbdt 如何选...转载 2018-07-13 13:29:54 · 211 阅读 · 0 评论 -
逻辑回归的常见面试点总结
1.简介 逻辑回归是面试当中非常喜欢问到的一个机器学习算法,因为表面上看逻辑回归形式上很简单,很好掌握,但是一问起来就容易懵逼。所以在面试的时候给大家的第一个建议不要说自己精通逻辑回归,非常容易被问倒,从而减分。下面总结了一些平常我在作为面试官面试别人和被别人面试的时候,经常遇到的一些问题。2.正式介绍 如何凸显你是一个对逻辑回归已经非常了解的人呢。那就是用一句话概括它!逻辑回归...转载 2018-07-13 14:00:42 · 394 阅读 · 0 评论 -
如何在 Kaggle 首战中进入前 10%
Introduction本文采用署名 - 非商业性使用 - 禁止演绎 3.0 中国大陆许可协议进行许可。著作权由章凌豪所有。Kaggle 是目前最大的 Data Scientist 聚集地。很多公司会拿出自家的数据并提供奖金,在 Kaggle 上组织数据竞赛。我最近完成了第一次比赛,在 2125 个参赛队伍中排名第 98 位(~ 5%)。因为是第一次参赛,所以对这个成绩我已经很满意了。在 Kagg...转载 2018-07-15 11:53:39 · 354 阅读 · 0 评论 -
数据挖掘比赛通用框架
1. 前言 Kaggle上有篇名为「Approaching (Almost) Any Machine Learning Problem」的博客(点击底部阅读原文),作者是Kaggle比赛的专业户,博客是他参加Kaggle比赛的经验总结。在进入正题前随便扯几句: 本文并非原博客的翻译版,而是90%的原创,是在原博客基础上融合自己的经验,重写了大部分章节和代码。所以当你看到本文跟原博客差别很大...转载 2018-09-05 16:53:44 · 926 阅读 · 0 评论 -
今我来思,堆栈泛化(Stacked Generalization)
原文地址:https://www.jianshu.com/p/46ccf40222d6 感谢作者,讲的很透彻 在集成学习(Ensemble Learning)中除了Bagging和Boosting对数据的横向划分划分之外,还有一个纵向划分(加深)的方法, 一般称为Stacked Generalization(SG)的技术。 SG这个技术已经在Kaggle竞赛中多次崭露头角了, 部分情况下,应用...转载 2018-09-07 16:49:53 · 2727 阅读 · 0 评论