math
文章平均质量分 88
_小庄
邮箱:[email protected]
微博:_向右一直走
展开
-
先验概率、后验概率与似然估计
先验概率、后验概率与似然估计先验概率、后验概率与似然估计(转载自)本文假设大家都知道什么叫条件概率了(P(A|B)表示在B事件发生的情况下,A事件发生的概率)。先验概率和后验概率教科书上的解释总是太绕了。其实举个例子大家就明白这两个东西了。假设我们出门堵车的可能因素有两个(就是假设而已,别当真):车辆太多和交通事故。堵车的概率就是先验概率 。转载 2014-11-03 20:41:25 · 650 阅读 · 0 评论 -
路径规划-人工势场法(Artifical Potential Field)
先贴几个备用资料链接路径规划算法初探http://blog.csdn.net/u011978022/article/details/49912515关于人工势场方法的研究http://kovan.ceng.metu.edu.tr/~kadir/academia/courses/grad/cs548/hmws/hw2/report/apf.pdf人工势场方法整理http://lets原创 2016-01-06 23:23:10 · 108998 阅读 · 41 评论 -
高斯混合模型GMM和EM
高斯混合模型(GMM),是一种可以用来匹配测试数据集的常用模型。和K-means一样,经常用来做数据分类,其中应用的Expectation-Maximization(EM)算法更是可以看做k-means 的一般特例。 首先区别两个概念 1.单高斯分布模型(GSM) 这里我们不要把单高斯分布和单变量高斯分布混淆了,虽然他们只是维数不同,但是理解成单变量可能会对我们的多高斯分布的理解造成混乱。原创 2015-12-14 20:58:10 · 2000 阅读 · 0 评论 -
对KLT,主成分分析(PCA)算法的理解
原文转载自:()以前对PCA算法有过一段时间的研究,但没整理成文章,最近项目又打算用到PCA算法,故趁热打铁整理下PCA算法的知识。本文观点旨在抛砖引玉,不是权威,更不能尽信,只是本人的一点体会。主成分分析(PCA)是多元统计分析中用来分析数据的一种方法,它是用一种较少数量的特征对样本进行描述以达到降低特征空间维数的方法,它的本质实际上是K-L变换。PCA方法最著名的应用应该是在人转载 2015-12-13 16:29:54 · 2793 阅读 · 0 评论 -
理解拉格朗日乘子法(Lagrange Multiplier) 和KKT条件
转自(http://blog.csdn.net/xianlingmao/article/details/7919597)在求取有约束条件的优化问题时,拉格朗日乘子法(Lagrange Multiplier) 和KKT条件是非常重要的两个求取方法,对于等式约束的优化问题,可以应用拉格朗日乘子法去求取最优值;如果含有不等式约束,可以应用KKT条件去求取。当然,这两个方法求得的结果只是必要条件,转载 2015-12-11 19:40:08 · 725 阅读 · 0 评论 -
深入浅出理解遗传算法
原文转载自:http://blog.csdn.net/b2b160/article/details/4680853遗传算法的手工模拟计算示例为更好地理解遗传算法的运算过程,下面用手工计算来简单地模拟遗传算法的各 个主要执行步骤。 例:求下述二元函数的最大值: (1) 个体编码 遗传算法的运算对象是表示个体的转载 2015-12-08 20:35:23 · 11625 阅读 · 0 评论 -
Bundle Adjustment 光束法平差详解
首先引述来自维基百科的定义:假设我们有一个3D空间中的点,他被位于不同位置的多个摄像机看到,那么所谓的光束法平差(Bundle Adjustment),就是能够从这些多视角信息中提取出3D点的坐标以及各个摄像机的相对位置和光学信息的过程。 可能这么说有点不够具体,我们用比较通俗的数学公式来描述这个过程: 问题提出:假设我们有一个3D空间中的一个点 XjX_{j},他可以被多个位于原创 2015-10-02 18:00:12 · 17273 阅读 · 1 评论 -
也谈卡尔曼滤波(上)
研究卡尔曼滤波的资料,成文之前,先将资料整理下以备后用。点击打开链接http://xiahouzuoxin.github.io/notes/html/Kalman滤波器从原理到实现.html原创 2015-10-16 22:50:52 · 3784 阅读 · 0 评论 -
说文解字——信号的时域分析(什么是卷积)
卷积原创 2015-05-20 10:53:21 · 4522 阅读 · 0 评论 -
说文解字----矩阵分析(一)矩阵中的空间与秩
近期学习了矩阵分析,在接下来的几篇文章中将进行总结。由于理解能力有限,我将更倾向于对矩阵的直观理解。水平有限,诸多错误恳请大家批评 **一、空间和子空间(space & subspace) ————————–**原创 2015-05-07 17:50:34 · 5631 阅读 · 0 评论 -
傅里叶变换、拉普拉斯变换、Z变换
上一部分我们通过级数的概念引出了傅里叶变换的来源。通过欧拉公式ejθ=cos(θ)+jsin(θ)e^{j\theta }=cos(\theta)+jsin(\theta)可以将三角函数形式以an,bna_{n},b_{n}为系数的傅里叶级数展开,变成复函数形式以cnc_{n}为系数的傅里叶展开。总结起来就是:傅里叶级数是函数在傅里叶空间中以 ejnΩte^{jn\Omega t}为基的展开式。其中原创 2015-06-01 17:59:27 · 3274 阅读 · 0 评论 -
说文解字——傅里叶变换、拉普拉斯变换、Z变换 (上)
在开始了解这些变换之前,简单复习一下级数的概念: 级数的概念之所以重要,是因为我们现实生活中经常遇到一些不规则的函数,为了方便我们的研究,我们希望能有一种方法来用简单的多项式或者多个函数来近似表示这个函数,这就是我们研究级数的原因:任意一个函数都能用多项式逼近; 假定我们有一个函数f(x),他的曲线是不规则的,我们很难去探索这种曲线的性质,但是如果我们把这种曲线展开成f(x)=f(x0)+f′(原创 2015-05-30 17:55:40 · 4030 阅读 · 2 评论 -
说文解字----矩阵分析(二)特征值特征向量 奇异值分解(SVD)
特征值,奇异值,相关分解是矩阵分析中一个非常重要的概念,我再网上找了些资料,很多人已经对此分析的非常纯熟,为了尊重原创作者,首先贴几个链接,大家欣赏下: 外文链接:http://www.ams.org/samplings/feature-column/fcarc-svd 翻译文章:http://blog.csdn.net/dinosoft/article/details/37884597 数学原创 2015-05-07 23:07:54 · 1036 阅读 · 0 评论 -
矩阵分析 特征值分解 奇异值分解 PCA
(文章转自:http://blog.csdn.net/jinshengtao/article/details/18448355)本文将分别介绍特征值分解、奇异值分解、及PCA的相关理论概念。文章末尾将给出Householder矩阵变换、QR算法求解特征值、特征向量的代码其中,特征值分解、奇异值分解的相关内容,转载自:http://www.cnblogs.com/Le转载 2015-05-05 17:41:11 · 2012 阅读 · 1 评论 -
关于线性代数矩阵问题的一点理解
最近重新学习了线性代数,对于矩阵有了一点新的理解,写点从更低的角度看矩阵的东西,欢迎批评指正。上学期苏老师讲授优化的时候多涉及矩阵的分析和计算,他跟我们说,在高维矩阵超越想象能力的情况下,采用低维矩阵去分析和理解问题,往往可以获得更直观的理解,也容易引起思路。一个简单的例子就是,需要知道36和89 之间有几个数,这就涉及做差后要不要加一个1的问题,容易考虑的是1-3之间原创 2015-01-18 12:19:50 · 1017 阅读 · 0 评论