![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
算法--算法和公式
喜欢雨天的我
爱技术,爱生活.
展开
-
数学符号的各种含义
[TOC]类型符号 类型 代表符号 符号说明 整数 Z 自然数 N 实数 R 实数讲解 正整数 N+或N* 负数 N- 有理数 Q 有理数的讲解 范数 范数的讲解 Sgn函数 Sgn 数学上的符号函数或者计算机语言中的返回函数。详细原创 2016-11-05 08:32:07 · 18335 阅读 · 0 评论 -
OCR 文字特征提取
作为OCR系统的第一步,特征提取是希望找出图像中候选的文字区域特征,以便我们在第二步进行文字定位和第三步进行识别. 在这部分内容中,我们集中精力模仿肉眼对图像与汉字的处理过程,在图像的处理和汉字的定位方面走了一条创新的道路. 这部分工作是整个OCR系统最核心的部分,也是我们工作中最核心的部分.传统的文本分割思路大多数是“边缘检测 + 腐蚀膨胀 + 联通区域检测”,如论文[1]. 然而,在复转载 2017-03-08 17:58:55 · 9377 阅读 · 1 评论 -
凸优化的使用方面和定义
1.动机和目的 人在面临选择的时候重视希望自己能够做出“最好”的选择,如果把它抽象成一个数学问题,那么“最好的选择”就是这个问题的最优解。优化问题,就是把你考虑的各个因素表示成为一组函数(代价函数),解决这个问题就是在一集备选解中选择最好的解。 那么,为什么我们要讨论凸优化而不是一般的优化问题呢?那时因为凸优化问题具有很好的性质——局部最优就是全局最优,这一特性让我们能转载 2017-03-20 18:20:19 · 4899 阅读 · 1 评论 -
回声消除技术解析
在做一问一答的语音对讲时候,不知道如何处理两个声音叠加在一起的时候,发现这个技术,真的很对应我当前的项目。一、前言因为工作的关系,笔者从2004年开始接触回声消除(Echo Cancellation)技术,而后一直在某大型通讯企业从事与回声消除技术相关的工作,对回声消除这个看似神秘、高端和难以理解的技术领域可谓知之甚详。要了解回声消除技术的来龙去脉,不得不提转载 2017-03-27 17:54:26 · 2463 阅读 · 0 评论 -
协方差的意义和计算公式 .
学过概率统计的孩子都知道,统计里最基本的概念就是样本的均值,方差,或者再加个标准差。首先我们给你一个含有n个样本的集合,依次给出这些概念的公式描述,这些高中学过数学的孩子都应该知道吧,一带而过。很显然,均值描述的是样本集合的中间点,它告诉我们的信息是很有限的,而标准差给我们描述的则是样本集合的各个样本点到均值的距离之平均。以这两个集合为例,[0,8,12,20]和[8,9,11,1转载 2017-03-21 16:47:54 · 863 阅读 · 0 评论 -
马氏距离和欧氏距离
Mahalanobis Distance & Euclidean DistanceDefinition 马氏距离(Mahalanobis Distance)是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。与欧氏距离不同的是它考虑到各种特性之间的联系(例如:一条关于身高的信息会带来一条关转载 2017-03-21 17:09:41 · 9175 阅读 · 0 评论 -
Kaggle平台
原文出处:http://blog.csdn.net/u012162613/article/details/41929171原文地址大数据竞赛平台——Kaggle 入门篇这篇文章适合那些刚接触Kaggle、想尽快熟悉Kaggle并且独立完成一个竞赛项目的网友,对于已经在Kaggle上参赛过的网友来说,大可不必耗费时间阅读本文。本文分为两部分介绍Kaggle转载 2017-03-21 22:45:17 · 2501 阅读 · 0 评论 -
卷积和积分运算
卷积和积分运算先看到卷积运算,知道了卷积就是把模版与图像对应点相乘再相加,把最后的结果代替模版中心点的值的一种运算。但是,近来又看到了积分图像的定义,立马晕菜,于是整理一番,追根溯源一下吧。1 卷积图像1.1 源头首先找到了一篇讲解特别好的博文,原文为:卷积贴过正文来看:--------------------------------------------------转载 2017-03-22 13:25:22 · 30290 阅读 · 2 评论 -
范数(机器学习中的使用)
原文出处: http://blog.csdn.net/zouxy09/article/details/24972869今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如转载 2017-03-15 13:50:02 · 24528 阅读 · 4 评论 -
深度学习和机器学习的相关资料
《Brief History of Machine Learning》介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机、神经网络、决策树、SVM、Adaboost到随机森林、Deep Learning.《Deep Learning in Neural Networks: An Overview》介绍:这是瑞士人工智能实验室Jurgen Schm转载 2017-04-01 16:18:00 · 8733 阅读 · 0 评论 -
机器学习--学习率
本文从梯度学习算法的角度中看学习率对于学习算法性能的影响,以及介绍如何调整学习率的一般经验和技巧。在机器学习中,监督式学习(Supervised Learning)通过定义一个模型,并根据训练集上的数据估计最优参数。梯度下降法(Gradient Descent)是一个广泛被用来最小化模型误差的参数优化算法。梯度下降法通过多次迭代,并在每一步中最小化成本函数(cost function)来估转载 2017-04-14 09:20:03 · 9391 阅读 · 1 评论 -
HPM(提高遮挡重建模型)
近期,一篇新的技术Paper《Occlusion Coherence Detecting and Localizing Occluded Faces》,在FDDB测试结果 表明可以提高当前人脸检测的性能。本文简要摘录和介绍了有关HDM算法的部分内容。1:一种人脸检测、姿势估计、标记估计的统一模型这个要从 CVPR 2012上获得Google student paper aw转载 2017-01-20 16:54:30 · 2423 阅读 · 1 评论 -
范数的相关公式
1、向量范数1-范数:,即向量元素绝对值之和,matlab调用函数norm(x, 1) 。2-范数:,Euclid范数(欧几里得范数,常用计算向量长度),即向量元素绝对值的平方和再开方,matlab调用函数norm(x, 2)。∞-范数:,即所有向量元素绝对值中的最大值,matlab调用函数norm(x, inf)。-∞-范数:,即所有向量元素绝对值中的原创 2017-01-20 14:44:55 · 25764 阅读 · 0 评论 -
最大似然估计 (MLE) 最大后验概率(MAP)
出处: http://www.cnblogs.com/sylvanas2012/p/5058065.html 最大似然估计 (MLE) 最大后验概率(MAP)1) 最大似然估计 MLE给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即“模型已定,参数未知”。例如,我们知道这个分布是正态分布,但是不知道均值和方差;或转载 2017-01-19 10:05:43 · 755 阅读 · 0 评论 -
数学符号arg含义
数学符号Arg的含义 表示使目标函数取最小值时的变量值arg max f(x): 当f(x)取最大值时,x的取值arg min f(x):当f(x)取最小值时,x的取值WIki解释原创 2016-11-05 08:25:23 · 6378 阅读 · 0 评论 -
算法学习(数据结构)-程序员必回
算法 对于Android开发,算法一般很少用到,今天面试问了我曾经搁浅了2年多的算法,瞬间懵逼,最基本的都忘了差不多了。 同时还有自己的一些陋习,比如全部使用IDE的提示,导致面试时候一些API的英文只记得前面的部分。(这点日后需要注意)正题(重新拾起算法)原创 2016-07-23 23:30:31 · 580 阅读 · 0 评论 -
10大必会的算法
算法一:快速排序算法快速排序是由东尼·霍尔所发展的一种排序算法。在平均状况下,排序 n 个项目要Ο(n log n)次比较。在最坏状况下则需要Ο(n2)次比较,但这种状况并不常见。事实上,快速排序通常明显比其他Ο(n log n) 算法更快,因为它的内部循环(inner loop)可以在大部分的架构上很有效率地被实现出来。快速排序使用分治法(Divide and conquer)策转载 2016-07-16 00:10:13 · 2072 阅读 · 0 评论 -
机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。前言: 上次写过一篇关于贝叶斯概率论的数学,最近时间比较紧,coding的任务比较重,不过还是抽空看了一些机器学习的书和视频,其中很推荐两个:一个是stanford的mach转载 2017-01-08 18:28:14 · 648 阅读 · 0 评论 -
机器学习中的数学(2)-线性回归,偏差、方差权衡
版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com。如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任。如果有问题,请联系作者 wheeleast@gmail.com前言: 距离上次发文章,也快有半个月的时间了,这半个月的时间里又在学习机器学习的道路上摸索着前进,积累了一点心得转载 2017-01-08 18:29:58 · 504 阅读 · 0 评论 -
机器学习中的数学(3)-模型组合(Model Combining)之Boosting与Gradient Boosting
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com 前言: 本来上一章的结尾提到,准备写写线性分类的问题,文章都已经写得差不多了,但是突然听说最近Team准备做一套分布式的分类器,可能会使用R转载 2017-01-08 18:31:36 · 550 阅读 · 0 评论 -
机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com前言: 第二篇的文章中谈到,和部门老大一宁出去outing的时候,他给了我相当多的机器学习的建议,里面涉及到很多的算法的意义、学习方法等等。一宁上次给转载 2017-01-08 18:33:28 · 627 阅读 · 0 评论 -
机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com。也可以加我的微博: @leftnoteasy前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用转载 2017-01-08 18:34:46 · 1471 阅读 · 0 评论 -
贝叶斯、概率分布与机器学习
本文由LeftNotEasy原创,可以转载,但请保留出处和此行,如果有商业用途,请联系作者wheeleast@gmail.com 一. 简单的说贝叶斯定理:贝叶斯定理用数学的方法来解释生活中大家都知道的常识形式最简单的定理往往是最好的定理,比如说中心极限定理,这样的定理往往会成为某一个领域的理论基础。机器学习的各种算法中使用的方法,最常见的就是贝叶斯定理。贝转载 2017-01-08 19:53:54 · 432 阅读 · 0 评论 -
http://blog.sina.com.cn/s/blog_ebbe6d790102vmez.html
原文出处:ASM(极其姊妹AAM)是个不错的研究方向,有兴趣的可以深入去研究。(1) ASM结果图片上图摘自文章A Component Based Deformable Model for Generalized Face Alignment (2)标准图 (3)Delauna转载 2017-01-18 17:52:55 · 9005 阅读 · 0 评论 -
自动驾驶 (资料)
Youtube自动驾驶深度学习课程资料原创 2017-06-27 20:30:39 · 832 阅读 · 0 评论