机器学习
开飞机的小毛驴儿
自律者自由
展开
-
ROC曲线和AUC值的计算
转载自:https://zhuanlan.zhihu.com/p/25212301,本文只做个人记录学习使用,版权归原作者所有。1、混淆矩阵混淆矩阵如下图所示,分别用0和1代表负样本和正样本。FP代表实际类标签为0但是预测标签为1的样本数量,其余可类似推理。2、假正率和真正率假正率(False Positve Rate)是实际标签为0的样本中,被预测错误的比例。真正率(True...转载 2019-12-04 23:52:33 · 751 阅读 · 0 评论 -
logistic function 和 sigmoid function
转载自:https://www.cnblogs.com/wxiaoli/p/9231361.html,版权归原作者所有。本文只做个人记录学习使用。简单说,只要曲线是 “S”形的函数都是sigmoid function;满足公式<1>的形式的函数都是logistic function。两者的相同点是: 函数曲线都是“S”形。另外造成两个概念混用导致初学者困扰主要是因为...转载 2019-11-30 02:17:58 · 553 阅读 · 0 评论 -
win10、vs2015pro,matlab2016a安装libsvm-3.21、svm入门实例
参照博客:http://blog.csdn.net/mghhz816210/article/details/36687333到最后一步的时候发现svmpredict不出现结果,参照:http://www.ilovematlab.cn/thread-272385-1-1.html,将最后一句改为:[predict_label, accuracy,decision_values] = svmpre原创 2016-08-14 11:02:14 · 4262 阅读 · 0 评论 -
ROC曲线详解及matlab绘图实例
有关ROC曲线的内容转自wiki:https://zh.wikipedia.org/wiki/ROC%E6%9B%B2%E7%BA%BF,版权归原作所有在信号检测理论中,接收者操作特征曲线(receiver operating characteristic curve,或者叫ROC曲线)是一种坐标图式的分析工具,用于 (1) 选择最佳的信号侦测模型、舍弃次佳的模型。 (2) 在同一转载 2017-03-15 11:15:38 · 41545 阅读 · 4 评论 -
正则化与数据先验分布的关系
转载自知乎:https://www.zhihu.com/question/23536142先抛给大家一个结论:从贝叶斯的角度来看,正则化等价于对模型参数引入 先验分布 。一. Linear Regression我们先看下最原始的Linear Regression:<img src="https://pic2.zhimg.com/c24e0befa5ee8a84de2转载 2017-05-31 20:53:18 · 3349 阅读 · 1 评论 -
L0、L1、L2、Elastic Net正则项
转载自:http://blog.csdn.net/liyuan123zhouhui/article/details/51882926,版权归原作者所有,转载仅为阅读方便。L1正则化使得模型更加稀疏,L2使得模型参数更趋近于0,提高泛化能力(这里是另外一个解释:https://www.zhihu.com/question/38081976/answer/74895039)转载 2017-11-07 14:24:00 · 611 阅读 · 0 评论 -
Mean-Shift算法
原文地址:http://blog.csdn.net/hjimce/article/details/45718593 作者:hjimce一、mean shift 算法理论Mean shift 算法是基于核密度估计的爬山算法,可用于聚类、图像分割、跟踪等,因为最近搞一个项目,涉及到这个算法的图像聚类实现,因此这里做下笔记。(1)均值漂移的基本形式给定d维空间的n转载 2017-12-18 10:39:53 · 37613 阅读 · 6 评论 -
为什么局部下降最快的方向就是梯度的负方向?
转载自:https://zhuanlan.zhihu.com/p/36503663,版权归原作者所有。1. 什么是梯度?对于梯度下降算法(Gradient Descent Algorithm),我们都已经很熟悉了。无论是在线性回归(Linear Regression)、逻辑回归(Logistic Regression)还是神经网络(Neural Network)等等,都会用到梯度下降算法。我们先来...转载 2018-05-08 22:13:15 · 2114 阅读 · 0 评论 -
机器学习中的相似性度量
发现的宝贝博客,就一起都转载过来 原文在这里:http://www.cnblogs.com/scnucs/archive/2013/04/14/3019648.html在做分类时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否转载 2016-05-31 20:06:18 · 545 阅读 · 0 评论 -
混合高斯模型
前几天做了一个报告,谈到了一点高斯混合模型的东西,但有些地方我并不是特别的理解,今天看到了一篇很好的文章,转载过来,以便后期的学习研究。原文在这里:http://blog.pluskid.org/?p=39 传说中的大神,如有侵权,联系jzwang@bjtu.edu.cn 立马删除!上一次我们谈到了用 k-means 进行聚类的方法,这次我们来说一下另一个很流行的算法:Gaus转载 2016-06-20 09:22:57 · 715 阅读 · 0 评论 -
伯克利大学“机器学习(Practical Machine Learning)"课件及相关资料
原文在这里:http://www.cnblogs.com/scnucs/archive/2012/09/29/2708790.htmlCousera上不去了,我们就看课件吧。伯克利大学的"Practical Machine Learning”课程,用Google翻译称之为“实用机器学习”,不能拍板这样翻译是否合适,就省略了前两个字。注意这个课不是Coursera上的,是伯克利自己的CS转载 2016-05-31 20:16:41 · 2071 阅读 · 0 评论 -
浅谈流形学习
转载自:http://blog.pluskid.org/?p=533&cpage=1#comments 此人写了一系列非常好的博客,强烈推荐。总觉得即使是“浅谈”两个字,还是让这个标题有些过大了,更何况我自己也才刚刚接触这么一个领域。不过懒得想其他标题了,想起来要扯一下这个话题,也是因为和朋友聊起我自己最近在做的方向。Manifold Learning 或者仅仅 Manifold 本身通常转载 2016-09-08 16:48:49 · 1996 阅读 · 0 评论 -
机器学习中的范数规则化之(一)L0、L1与L2范数
我不生产自己不熟悉的内容,我只是陌生内容的搬运工!向原作致敬!机器学习中的范数规则化之(一)L0、L1与L2范数zouxy09@qq.comhttp://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择转载 2016-01-11 11:33:37 · 689 阅读 · 0 评论 -
机器学习中的范数规则化之(二)核范数与规则项参数选择
我不生产自己不熟悉的内容,我只是陌生内容的搬运工!向原作致敬!机器学习中的范数规则化之(二)核范数与规则项参数选择zouxy09@qq.comhttp://blog.csdn.net/zouxy09 上一篇博文,我们聊到了L0,L1和L2范数,这篇我们絮叨絮叨下核范数和规则项参数选择。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希转载 2016-01-11 11:35:11 · 443 阅读 · 0 评论