![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
找工作总结之机器学习
zhangxueyang1
计算机 低手
展开
-
美团机器学习岗面经
美团 今年由于阿里拥抱变化,缩招的消息似乎影响了整个就业的形势。举个例子,据我了解某个实验室去年数个BAT的offer,今年好像只有一两个。当然大的趋势我们无法改变,只有自己拥抱变化才行。在这个形势之下能有一份自己满意的工作的确很不容易,楼主经历了不断地挫折和失败之后很庆幸自己获得了美团的offer,本着分享的精神和大家分享我的面试经历。希望能给后人造福。当然本人能力有限,找工作一半运气转载 2017-01-07 16:56:36 · 745 阅读 · 0 评论 -
机器学习&数据挖掘笔记_16(常见面试之机器学习算法思想简单梳理)
前言: 找工作时(IT行业),除了常见的软件开发以外,机器学习岗位也可以当作是一个选择,不少计算机方向的研究生都会接触这个,如果你的研究方向是机器学习/数据挖掘之类,且又对其非常感兴趣的话,可以考虑考虑该岗位,毕竟在机器智能没达到人类水平之前,机器学习可以作为一种重要手段,而随着科技的不断发展,相信这方面的人才需求也会越来越大。 纵观IT行业的招聘岗位,机器学习之类的岗位还是挺少的,国转载 2017-01-07 16:58:09 · 717 阅读 · 0 评论 -
随机森林算法
转载自:http://www.zilhua.com/629.html 1. 随机森林使用背景1.1 随机森林定义随机森林是一种比较新的机器学习模型。经典的机器学习模型是神经网络,有半个多世纪的历史了。神经网络预测精确,但是计算量很大。上世纪八十年代Breiman等人发明分类树的算法(Breiman et al. 1984),通过反复二分数据进行分类或回转载 2017-01-07 16:59:16 · 1158 阅读 · 0 评论 -
主成分回归
链接:http://wenku.baidu.com/link?url=j3AP_5rAlHakX0V7V6z1limKl7KGSXrphqclNzMqc5QZCP7mL2aVvKuiHLGoZoCi3_k6SqWhQAHG9cv4PESY1zF8WetM9dQSE5xFc70KC0u转载 2017-01-07 17:00:33 · 2895 阅读 · 0 评论 -
机器学习中的相似性度量
在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。 本文的目的就是对常用的相似性度量作一个总结。本文目录:1. 欧氏距离2. 曼哈顿距离3. 切比雪夫距离4. 闵可夫斯转载 2017-01-07 17:01:53 · 254 阅读 · 0 评论 -
如何选择机器学习分类器?
转自:http://www.open-open.com/news/view/1f66c10摘要:你知道如何为你的分类问题选择合适的机器学习算法吗?当然,如果你真正关心准确率,那么最佳方法是测试各种不同的算法(同时还要确保对每个算法 测试不同参数),然后通过交叉验证选择最好的一个。但是,如果你只是为你的问题寻找一个“足够好”的算法,或者一个起点,这里有一些我这些年发现的还不错 的一般准则转载 2017-01-07 17:03:30 · 1010 阅读 · 0 评论 -
逻辑回归与决策树在分类上的区别
转自:http://blog.csdn.net/keepreder/article/details/47152273在讨论之前,让我们来看一下逻辑回归和决策树的主要差别:有些分歧是表面的,例如决策树可以对付缺失值,而逻辑回归需要挖掘人员预先对缺失数据进行处理。但实际上决策树同样要对缺失值做出某种假设和处理。例如CART在遇到一个变量中有缺失情况时,是用次级变量进行替换切分。这种转载 2017-01-07 17:06:44 · 879 阅读 · 1 评论 -
LMSE-(H-K)算法
转自:http://wenku.baidu.com/link?url=8bXhnET8E6k8eAsmE4v6s5RETZ6lJEgf4-U7JpaFl4br-BM17h-F8saQvhYLZO0yrqJAh9Sksi-FxJF-iFYp3l0Un2KcBmr4orVQpOCb9YO转载 2017-01-07 17:07:44 · 3826 阅读 · 0 评论 -
因子分析法详细步骤
转自:http://wenku.baidu.com/link?url=rE2auC9r9UVK79Bxj6Rpk5nhE3akn2C1X-QQYpOd4MbDylV5v5-9XIK1x1MaJUegvkwXxXeiJnClmgASQuGbK4oVMBaS8x4tH83-I96_kk7转载 2017-01-07 17:08:17 · 30245 阅读 · 0 评论 -
因子分析法
转自:http://wenku.baidu.com/link?url=80FadYdb2lQqo-F7avs5ldgJak2eAjixOksWKGDXF5pkIcuSk0G1GHcYtbwCFaYyucPcNFOyXInDcI-tV8f6a9iVVpGAFrzqdedeqTAYsZK转载 2017-01-07 17:08:54 · 1861 阅读 · 0 评论 -
因子分析原理PPT
转自:http://wenku.baidu.com/link?url=-Fkdabalm78kTLlcM1_vn4fZ84zen7L2S1dA6YYk7MUupcW5N2cYfUWdXmxJ9cskw4yvF86Pj8YpHUDafw-JM8qYz10UeiqxJDAV_NM8JQe转载 2017-01-07 17:09:20 · 1057 阅读 · 0 评论 -
k近邻法与kd树
转自:http://blog.csdn.net/qll125596718/article/details/8426458 在使用k近邻法进行分类时,对新的实例,根据其k个最近邻的训练实例的类别,通过多数表决的方式进行预测。由于k近邻模型的特征空间一般是n维实数向量,所以距离的计算通常采用的是欧式距离。关键的是k值的选取,如果k值太小就意味着整体模型变得复杂,容易发生过拟合,即如果邻近的实例点转载 2017-01-07 17:10:24 · 305 阅读 · 0 评论 -
逻辑回归优缺点
转自:http://blog.sina.com.cn/s/blog_5dd0aaa50102vjq3.html优点:1)预测结果是界于0和1之间的概率;2)可以适用于连续性和类别性自变量;3)容易使用和解释;缺点:1)对模型中自变量多重共线性较为敏感,例如两个高度相关自变量同时放入模型,可能导致较弱的一个自变量回归符号不符合预期,符号被扭转载 2017-01-07 17:11:35 · 19002 阅读 · 0 评论 -
统计学总结之Bias(偏差),Error(误差),和Variance(方差)的区别
转自:http://blog.csdn.net/qq_16365849/article/details/50635700Bias(偏差),Error(误差),和Variance(方差)的区别1)、概念:bias :度量了某种学习算法的平均估计结果所能逼近学习目标的程度;(一个高的偏差意味着一个坏的匹配) variance :则度量了在面对同样规模的不同训练集时分散程度。转载 2017-01-07 16:55:16 · 3922 阅读 · 0 评论 -
贝叶斯定理与贝叶斯估计
转自:http://lijiwei19850620.blog.163.com/blog/static/978415382013655540438/?COLLCC=2510627063&COLLCC=2644844791&COLLCC=2611290359&COLLCC=2997166327&贝叶斯定理通常,事件A在事件B的条件下的概率,与事件B在事件A的条件下的概率是不一样的;然而翻译 2017-01-07 16:53:42 · 3276 阅读 · 0 评论 -
朴素贝叶斯 VS 逻辑回归 区别
转自:http://blog.csdn.net/chlele0105/article/details/38922551总结起来,有以下几点不同:(1) Naive Bayes是一个生成模型,在计算P(y|x)之前,先要从训练数据中计算P(x|y)和P(y)的概率,从而利用贝叶斯公式计算P(y|x)。转载 2017-01-07 16:50:48 · 1375 阅读 · 0 评论 -
用“人话”解释不精确线搜索中的Armijo-Goldstein准则及Wolfe-Powell准则
转载请注明出处:http://www.codelast.com/line search(一维搜索,或线搜索)是最优化(Optimization)算法中的一个基础步骤/算法。它可以分为精确的一维搜索以及不精确的一维搜索两大类。在本文中,我想用“人话”解释一下不精确的一维搜索的两大准则:Armijo-Goldstein准则 & Wolfe-Powell准则。之所以这样说,是因为我读到的转载 2017-01-07 16:22:04 · 11233 阅读 · 1 评论 -
常见机器学习算法比较
机器学习算法太多了,分类、回归、聚类、推荐、图像识别领域等等,要想找到一个合适算法真的不容易,所以在实际应用中,我们一般都是采用启发式学习方式来实验。通常最开始我们都会选择大家普遍认同的算法,诸如SVM,GBDT,Adaboost,现在深度学习很火热,神经网络也是一个不错的选择。假如你在乎精度(accuracy)的话,最好的方法就是通过交叉验证(cross-validation)对各个算法一个个地转载 2017-01-07 16:25:28 · 577 阅读 · 0 评论 -
机器学习中常见的几种最优化方法
1. 梯度下降法(Gradient Descent)2. 牛顿法和拟牛顿法(Newton's method & Quasi-Newton Methods)3. 共轭梯度法(Conjugate Gradient)4. 启发式优化方法 5. 解决约束优化问题——拉格朗日乘数法我们每个人都会在我们的生活或者工作中遇到各种各样的最优化问题,比如每个企业和个人都要考虑的一个问题“转载 2017-01-07 16:27:37 · 799 阅读 · 0 评论 -
GMM与K-means的那些事
GMM算法GMM 与 K-meansGMM 模型GMM 聚类参数与似然函数算法流程Matlab 实现Python版本代码GMM与K-means对比关于GMM算法中奇异矩阵的问题【原创】Liu_LongPo 转载请注明出处【CSDN】http://blog.csdn.net/llp1992GMM算法GMM ,Gaussian Mixtu转载 2017-01-07 16:37:18 · 1718 阅读 · 0 评论 -
朴素贝叶斯 VS 逻辑回归 区别
总结起来,有以下几点不同:(1) Naive Bayes是一个生成模型,在计算P(y|x)之前,先要从训练数据中计算P(x|y)和P(y)的概率,从而利用贝叶斯公式计算P(y|x)。 Logistic Regression是一个判别模型,它通过在训练数据集上最大化判别函数P(y|x)学习得到,不需要知道P(x|y)和P(y)。(2)转载 2017-01-07 16:38:17 · 749 阅读 · 0 评论 -
Logistic回归与梯度下降法
转自:http://blog.csdn.net/acdreamers/article/details/44657979Logistic回归为概率型非线性回归模型,是研究二分类观察结果与一些影响因素之间关系的一种多变量分析方法。通常的问题是,研究某些因素条件下某个结果是否发生,比如医学中根据病人的一些症状来判断它是否患有某种病。 在讲解Logistic回归理论转载 2017-01-07 16:40:01 · 931 阅读 · 0 评论 -
SVM的核函数如何选取
知乎:https://www.zhihu.com/question/21883548转载 2017-01-07 16:41:40 · 779 阅读 · 0 评论 -
如何解决机器学习中数据不平衡问题
作者:无影随想 时间:2016年1月。 出处:http://www.zhaokv.com/2016/01/learning-from-imbalanced-data.html 声明:版权所有,转载请联系作者并注明出处 这几年来,机器学习和数据挖掘非常火热,它们逐渐为世界带来实际价值。与此同时,越来越多的机器学习算法从学术界走向工业界,而在这个过程中会有很多困难。数据不平转载 2017-01-07 16:42:29 · 516 阅读 · 0 评论 -
SVM与LR的比较
两种方法都是常见的分类算法,从目标函数来看,区别在于逻辑回归采用的是logistical loss,svm采用的是hinge loss。这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。SVM的处理方法是只考虑support vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与转载 2017-01-07 16:43:27 · 619 阅读 · 0 评论 -
聚类分析中的距离度量
转自:http://blog.csdn.net/gao675597253/article/details/7385898聚类分析中如何度量两个对象之间的相似性呢?一般有两种方法,一种是对所有对象作特征投影,另一种则是距离计算。前者主要从直观的图像上反应对象之间的相似度关系,而后者则是通过衡量对象之间的差异度来反应对象之间的相似度关系。 如图(1转载 2017-01-07 16:45:06 · 7273 阅读 · 0 评论 -
贝叶斯决策论小结
转自:http://blog.csdn.net/yujianmin1990/article/details/47786803贝叶斯决策论是解决模式分类问题的一种基本统计途径。其假设:决策问题可以用概率的形式来描述,并且所有有关的概率结构均已知。现对其进行一下简单的总结。贝叶斯决策准则 按照不同决策标准,会得到不同意义下的最优决策。 最小错误率准则 最小风险转载 2017-01-07 16:46:39 · 474 阅读 · 0 评论 -
协方差矩阵的几何解释
A geometric interpretation of the covariance matrixhttp://www.visiondummy.com/2014/04/geometric-interpretation-covariance-matrix/译文:http://demo.netfoucs.com/u010182633/article/details/45937051转载 2017-01-07 16:48:09 · 319 阅读 · 0 评论 -
教你如何迅速秒杀掉:99%的海量数据处理面试题
转自:http://blog.csdn.net/v_july_v/article/details/7382693 教你如何迅速秒杀掉:99%的海量数据处理面试题本文经过大量细致的优化后,收录于我的新书《编程之法》第六章中,新书目前已上架京东/当当/亚马逊作者:July出处:结构之法算法之道blog前言 一转载 2017-01-07 17:25:11 · 351 阅读 · 0 评论