数学知识
文章平均质量分 91
langb2014
这个作者很懒,什么都没留下…
展开
-
Stochastic gradient descent与Batch gradient descent
梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的记录条数,j是参数的个数。梯度下降法函数function [k ender]=steepest(f,x,e),需要三个参数f、x和e,其中f为目标函原创 2015-09-07 17:53:54 · 3680 阅读 · 0 评论 -
D-SIFT
dense sift即直接指定关键点位置和描述子采样区域,计算sift特征。 主要过程是: 1,用一个patch在图像上以一定步长step滑动,代码中step=1,这个patch就是描述子采样区域,patch size是4bins*4bins,bin size可以自己指定,代码中是3pixels*3pixels。这里说的bin对应到《sift特征提取》中的第4步就是指子区域area。图中的原创 2015-09-26 12:11:04 · 2886 阅读 · 0 评论 -
Vector Quantization(学习Free Mind知识整理)
阅读http://blog.pluskid.org/?p=57文章中的一些知识整理:=====================================================================矢量量化(Vector Quantization)其实也就是逼近,VQ 是将一个向量空间中的点用其中的一个有限子集来进行编码的过程。Vector Quantization原创 2015-08-27 19:22:26 · 2491 阅读 · 3 评论 -
Hierarchical Clustering(学习Free Mind知识整理)和Hungarian Algorithm
由上一篇K-medoids算法学完后,搜索到Hierarchical Clustering算法和上篇Free Mind的K-medoid讨论提到的Hungarian Algorithm算法,做一个简单学习。这篇文章的学习思路还是按照http://blog.pluskid.org/?p=407学习一下。=============================================原创 2015-08-24 14:28:02 · 1668 阅读 · 0 评论 -
k-medoids(学习Free Mind知识整理)
看到这里的k-medoids联想到聚类方法有哪些?http://blog.chinaunix.net/uid-10289334-id-3758310.html这k-medoids和k-means两者对比一下图:原创 2015-08-24 13:00:55 · 3249 阅读 · 0 评论 -
k-means(学习Free Mind知识整理)
阅读http://blog.pluskid.org/?p=17文章中的一些知识整理:===============================================================聚类算法,不是分类算法。分类算法是给一个数据,然后判断这个数据属于已分好的类中的具体哪一类。聚类算法是给一大堆原始数据,然后通过算法将其中具有相似特征的数据聚为一类。原创 2015-08-24 12:01:24 · 1335 阅读 · 0 评论 -
Timsort排序算法
算法实现原理TimSort原理:现实数据通常会有部分是已经排好序,TimSort正是利用这一点,将数组拆成多个部分已排序的分区,部分未排序分区重新排序,最后将多个分区合并并排序。例如:array[] =[24,63,70,55,41,92,81,80],排序步骤如下:1. 拆分分区:[24,63],[70,55],[41,92],[81,80]2. 重排分区:[24,63]...转载 2019-08-22 17:07:37 · 1146 阅读 · 0 评论 -
理解 product quantization 算法
1. 引言Product quantization,国内有人直译为乘积量化,这里的乘积是指笛卡尔积(Cartesian product),意思是指把原来的向量空间分解为若干个低维向量空间的笛卡尔积,并对分解得到的低维向量空间分别做量化(quantization)。这样每个向量就能由多个低维空间的量化code组合表示。为简洁描述起见,下文用PQ作为product quantization的简称。...转载 2019-08-16 13:10:44 · 2033 阅读 · 0 评论 -
Gaussian Mixture Model(学习Free Mind知识整理)
这篇关于Gaussian Mixture Model(GMM)的文章:http://blog.pluskid.org/?p=39 http://blog.csdn.net/abcjennifer/article/details/8198352===============================================================“高斯分布原创 2015-08-27 16:30:07 · 1011 阅读 · 0 评论 -
Regularized Gaussian Covariance Estimation(学习Free Mind知识整理)
阅读http://freemind.pluskid.org/machine-learning/regularized-gaussian-covariance-estimation/文章中的一些知识整理:====================================================================非常感谢Free Mind能够这么耐心的分析解原创 2015-08-27 20:17:33 · 993 阅读 · 0 评论 -
LBP+DLBP+STLBP+VLBP
纹理是物体表面的固有特征之一,可认为是灰度(颜色)在空间以一定的形式变化而产生的图案(模式).LBP(Local Binary Pattern, 局部二值模式)是一种用来描述图像局部纹理特征的算子;它的作用是进行特征提取,提取图像的局部纹理特征.原始的LBP算子定义为在3*3的窗口内,以窗口中心像素为阈值,将相邻的8个像素的灰度值与其进行比较,若周围像素值大于转载 2015-09-15 12:27:46 · 3608 阅读 · 1 评论 -
Dimensionality Reduction(学习Free Mind知识整理)
阅读http://blog.pluskid.org/?p=290文章中的一些知识整理:学习的知识点降维。=====================================================================先看一下这句话“feature selection 和 dimensionality reduction 两个 topic 都有许多很经典的算原创 2015-09-15 13:14:39 · 3350 阅读 · 0 评论 -
Deciding the Number of Clusterings(学习Free Mind知识整理)
阅读http://freemind.pluskid.org/machine-learning/deciding-the-number-of-clusterings/文章的一些知识整理。=====================================================================前面不知道kid在后面会介绍如何确定聚类的类别个数这一部分知识原创 2015-09-15 14:50:53 · 850 阅读 · 0 评论 -
逻辑回归模型及LBFGS的Sherman Morrison(SM) 公式推导
转载 2015-10-05 17:11:20 · 3962 阅读 · 2 评论 -
理解矩阵
作者连接:http://my.csdn.net/myan前不久chensh出于不可告人的目的,要充当老师,教别人线性代数。于是我被揪住就线性代数中一些务虚性的问题与他讨论了几次。很明显,chensh觉得,要让自己在讲线性代数的时候不被那位强势的学生认为是神经病,还是比较难的事情。可怜的chensh,谁让你趟这个地雷阵?!色令智昏啊!线性代数课程,无论你从行列式入手还是直接从矩阵转载 2015-10-20 21:18:24 · 797 阅读 · 0 评论 -
矩阵特征值分解与奇异值分解含义解析及应用
特征值与特征向量的几何意义矩阵的乘法是什么,别只告诉我只是“前一个矩阵的行乘以后一个矩阵的列”,还会一点的可能还会说“前一个矩阵的列数等于后一个矩阵的行数才能相乘”,然而,这里却会和你说——那都是表象。矩阵乘法真正的含义是变换,我们学《线性代数》一开始就学行变换列变换,那才是线代的核心——别会了点猫腻就忘了本——对,矩阵乘法 就是线性变换,若以其中一个向量A为中心,则B的作转载 2015-11-01 14:50:52 · 968 阅读 · 0 评论 -
分类模型的性能评估——以SAS Logistic回归为例(1): 混淆矩阵
跑完分类模型(Logistic回归、决策树、神经网络等),我们经常面对一大堆模型评估的报表和指标,如Confusion Matrix、ROC、Lift、Gini、K-S之类(这个单子可以列很长),往往让很多在业务中需要解释它们的朋友头大:“这个模型的Lift是4,表明模型运作良好。——啊,怎么还要解释ROC,ROC如何如何,表明模型表现良好……”如果不明白这些评估指标的背后的直觉,就很可能陷入这样转载 2016-04-11 08:41:18 · 2632 阅读 · 0 评论 -
分类模型的性能评估——以SAS Logistic回归为例(2): ROC和AUC
ROC上回我们提到,ROC曲线就是不同的阈值下,以下两个变量的组合(如果对Sensitivity和Specificity两个术语没有概念,不妨返回,《分类模型的性能评估——以SAS Logistic回归为例(1): 混淆矩阵》,强烈建议读者对着看):Sensitivity(覆盖率,True Positive Rate)1-Specificity (Specificity,转载 2016-04-11 09:45:43 · 2802 阅读 · 0 评论 -
分类模型的性能评估——以SAS Logistic回归为例(3): Lift和Gain
跟ROC类似,Lift(提升)和Gain(增益)也一样能简单地从以前的Confusion Matrix以及Sensitivity、Specificity等信息中推导而来,也有跟一个baseline model的比较,然后也是很容易画出来,很容易解释。以下先修知识,包括所需的数据集:分类模型的性能评估——以SAS Logistic回归为例(1): 混淆矩阵分类模型的性能评估——以SAS转载 2016-04-11 09:54:36 · 4206 阅读 · 0 评论 -
非负矩阵分解(NMF)简介
作者:Stark Einstein链接:https://zhuanlan.zhihu.com/p/22043930来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。什么是非负矩阵分解?非负矩阵分解,顾名思义就是,将非负的大矩阵分解成两个非负的小矩阵。 (1)回顾矩阵分解本身,在空间分布的一堆数据有它们分布的某些规律,那么找一组更能转载 2016-08-17 09:03:21 · 4362 阅读 · 0 评论 -
Spectral Clustering(学习Free Mind知识整理)
阅读http://blog.pluskid.org/?p=287文章中的一些知识整理:本文学习的知识点谱聚类。原创 2015-08-27 17:54:32 · 2477 阅读 · 0 评论