算法
Kola_Abner
这个作者很懒,什么都没留下…
展开
-
Kmeans(K均值)与Kmeans++和KNN(K近邻)算法比较
K-Means介绍 K-means算法是聚类分析中使用最广泛的算法之一。它把n个对象根据他们的属性分为k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。其聚类过程可以用下图表示: 如图所示,数据样本用圆点表示,每个簇的中心点用叉叉表示。(a)刚开始时是原始数据,杂乱无章,没有label,看起来都一样,都是绿色的。(b)假设数据集转载 2017-09-15 11:47:51 · 10534 阅读 · 0 评论 -
SVM
1.SVM的原理 SVM方法是通过一个非线性映射p,把样本空间映射到一个高维乃至无穷维的特征空间中(Hilbert空间),使得在原来的样本空间中非线性可分的问题转化为在特征空间中的线性可分的问题.简单地说,就是升维和线性化.升维,就是把样本向高维空间做映射,一般情况下这会增加计算的复杂性,甚至会引起“维数灾难”,因而人们很少问津.但是作为分类、回归等问题来说,很可能在低维样本空间无法线性处理的样本原创 2017-09-21 22:58:02 · 1550 阅读 · 0 评论 -
str和repr的区别
Python打印值的时候会保持该值在Python代码中的状态,不是用户所希望看到的状态。而使用print打印值则不一样,print打印出来的值是用户所希望看到的状态。 例如:>>> "Hello, world!"'Hello, world!' # Python打印出来的值是给python理解的,这里python理解为字符串,所以带着引号>>> 1000L # python理转载 2017-09-16 18:13:08 · 211 阅读 · 0 评论 -
基尼不纯度(Gini impurity)
决策树是一种简单的机器学习方法。决策树经过训练之后,看起来像是以树状形式排列的一系列if-then语句。一旦我们有了决策树,只要沿着树的路径一直向下,正确回答每一个问题,最终就会得到答案。沿着最终的叶节点向上回溯,就会得到一个有关最终分类结果的推理过程。决策树:1234567class decisionnode: def __init__(self,col=-1,value=None,resul转载 2017-09-19 16:17:50 · 4284 阅读 · 0 评论 -
信息熵与Gini不纯度
1、信息熵信息论中的信息量和信息熵。信息量:信息量是对信息的度量,就跟温度的度量是摄氏度一样,信息的大小跟随机事件的概率有关。例如: 在哈尔滨的冬天,一条消息说:哈尔滨明天温度30摄氏度,这个事件肯定会引起轰动,因为它发生的概率很小(信息量大)。日过是夏天,“明天温度30摄氏度”可能没有人觉得是一个新闻,因为夏天温度30摄氏度太正常了,概率太大了(信息点太小了)从这个例子中可以看出 一个随机事件的转载 2017-09-19 16:14:27 · 628 阅读 · 0 评论 -
机器学习结果统计-准确率、召回率F1-score
用手写数字识别来作为说明。准确率: 所有识别为”1”的数据中,正确的比率是多少。 如识别出来100个结果是“1”, 而只有90个结果正确,有10个实现是非“1”的数据。 所以准确率就为90%召回率: 所有样本为1的数据中,最后真正识别出1的比率。 如100个样本”1”, 只识别出了93个是“1”, 其它7个是识别成了其它数据。 所以召回率是93%F1-score: &...转载 2018-11-15 20:43:13 · 728 阅读 · 0 评论 -
NVIDIA DIGITS 学习笔记(NVIDIA DIGITS-2.0 + Ubuntu 14.04 + CUDA 7.0 + cuDNN 7.0 + Caffe 0.13.0)
NVIDIA DIGITS 学习笔记转载 2018-11-29 18:08:05 · 180 阅读 · 0 评论 -
GAN/image/semi-supervised learning等的代码和文章
GAN/image/semi-supervised learning等的代码和文章,超级棒!转载 2018-12-07 14:44:42 · 532 阅读 · 0 评论