![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
小清新嘻嘻无敌
这个作者很懒,什么都没留下…
展开
-
Logistic回归以及LR与SVM异同
逻辑回归的优缺点 优点: 1)速度快,适合二分类问题 2)简单易于理解,直接看到各个特征的权重 3)能容易地更新模型吸收新的数据 缺点: 对数据和场景的适应能力有局限性,不如决策树算法适应性那么强 http://blog.csdn.net/pakko/article/details/37878837/ 什么是逻辑回归? Logistic回归与多重线性回原创 2017-08-08 14:29:31 · 722 阅读 · 0 评论 -
K近邻k-Nearest Neighbor(KNN)算法
http://blog.csdn.net/helloworld6746/article/details/50817427 一、KNN算法概述 KNN作为一种有监督分类算法,是最简单的机器学习算法之一,顾名思义,其算法主体思想就是根据距离相近的邻居类别,来判定自己的所属类别。算法的前提是需要有一个已被标记类别的训练数据集,具体的计算步骤分为一下三步: 1、计算测试对象与训练集中所有对象转载 2017-08-08 15:01:19 · 331 阅读 · 0 评论 -
Kmeans、Kmeans++和KNN算法比较
http://blog.csdn.net/loadstar_kun/article/details/39450615 K-Means介绍 K-means算法是聚类分析中使用最广泛的算法之一。它把n个对象根据他们的属性分为k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。其聚类过程可以用下图表示:转载 2017-08-11 14:49:54 · 258 阅读 · 0 评论 -
交叉熵(Cross-Entropy)
转载自:http://blog.csdn.net/rtygbwwwerr/article/details/50778098 交叉熵(Cross-Entropy) 交叉熵是一个在ML领域经常会被提到的名词。在这篇文章里将对这个概念进行详细的分析。 1.什么是信息量? 假设X是一个离散型随机变量,其取值集合为X,概率分布函数为p(x)=Pr(X=x),x∈X,我们定义事转载 2017-07-27 10:59:00 · 439 阅读 · 0 评论 -
朴素贝叶斯分类算法(Naive Bayesian classification)
转载自 http://www.cnblogs.com/leoo2sk/archive/2010/09/17/naive-bayesian-classifier.html 0、写在前面的话 我个人一直很喜欢算法一类的东西,在我看来算法是人类智慧的精华,其中蕴含着无与伦比的美感。而每次将学过的算法应用到实际中,并解决了实际问题后,那种快感更是我在其它地方转载 2017-08-06 15:28:06 · 431 阅读 · 0 评论 -
逻辑回归LR的特征为什么要先离散化
转自: http://blog.csdn.net/yang090510118/article/details/39478033 在工业界,很少直接将连续值作为特征喂给逻辑回归模型,而是将连续特征离散化为一系列0、1特征交给逻辑回归模型,这样做的优势有以下几点: 1. 稀疏向量内积乘法运算速度快,计算结果方便存储,容易scalable(扩展)。 2. 离散化后的特征对异转载 2017-09-04 18:03:21 · 431 阅读 · 0 评论 -
Jacobian矩阵和Hessian矩阵
转自https://www.cnblogs.com/bnuvincent/p/6651254.html 1. Jacobian 在向量分析中, 雅可比矩阵是一阶偏导数以一定方式排列成的矩阵, 其行列式称为雅可比行列式. 还有, 在代数几何中, 代数曲线的雅可比量表示雅可比簇:伴随该曲线的一个代数群, 曲线可以嵌入其中. 它们全部都以数学家卡尔·雅可比(Carl Jacob, 1804年10月4...转载 2018-09-07 16:48:38 · 598 阅读 · 0 评论