自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(24)
  • 资源 (1)
  • 收藏
  • 关注

原创 召回率 准确率

召回率:所有的正确样例,找回了几个?=真确找回的样例个数----------------------------正确找回的样例个数+没找到的样例个数准确率:找回的所以样例中正确的有几个?= 正确的样例个数-------------------------------所有找回的样例个数

2013-04-09 13:53:33 624

原创 LBP

LBP(局部二值模式)算法最初用于描述纹理,后引用到人脸,可描述人脸特征。

2013-03-05 09:43:37 588

转载 流形学习研究综述

流形学习研究综述来源:http://yslwdx.com   摘 要:  流形学习一般是指一类无监督统计学习问题,其主要目标是发现嵌入在高维数据空间的低维光滑流形。本文着重介绍了流形学习的研究背景、研究动机以及一些有代表性的学习算法,并对进一步的研究作了展望。    关键词:流形学习;固有维数;Isomap;LLE;坐标图卡;特征映射    1 流形

2013-02-04 15:43:45 6197

原创 矩阵的奇异值

几何意义:对任意m×n阶距阵A做分解之后得到两个正交距阵U,V和一个广义对角阵(其中的对角元素就是奇异值),有了这样一个简单的描述后,对任意向量x, 对应的变换Ax就可以用A分解后的三个距阵来计算了。这样的话,对于v阵的任一个元素Vi,经过变换AVi就可以得到唯一的一个Uiσi,这样就有了大家都知道的几何意义:当A是方阵时,其奇异值的几何意义是:若X是n维单位球面上的一点,则Ax是一个n维椭球

2013-02-04 15:37:20 1078

原创 稀疏编码

而每个神经元对这些刺激的表达则采用了稀疏编码(Sparse Coding, SC)原则,将图像在边缘、端点、条纹等方面的特性以稀疏编码的形式进行描述.从数学的角度来说,稀疏编码是一种多维数据描述方法,数据经稀疏编码后仅有少数分量同时处于明显激活状态,这大致等价于编码后的分量呈现超高斯分布.在实际应用中,稀疏编码有如下几个优点:编码方案存储能力大,具有联想记忆能力,并且计算简便;使自然信号的结构更加

2013-02-03 14:31:37 1562

原创 逻辑回归

回归其实就是对已知公式的未知参数进行估计。苏冉旭的博客1)回归   Logistic regression是线性回归的一种,线性回归是一种回归。那么回归是虾米呢?   回归其实就是对已知公式的未知参数进行估计。比如已知公式是y = a*x + b,未知参数是a和b。我们现在有很多真实的(x,y)数据(训练样本),回归就是利用这些数据对a和b的取值

2013-02-01 09:11:20 2177

原创 正则项 置信项

图像复原从数学角度考虑,它等价于第一类fredholm积分方程,是一种反问题,具有很大的病态性,因此,必须进行正则化处理。从统计的角度看,正则化处理其实就是一种图像的先验信息约束 。假设图像退化过程用如下模型描述: g=hf+n (1) 则图像复原即根据观测图像g恢复原始图像f。正则化图像复原从贝叶斯角度来说,可以用map(最大后验概率估计)方法实现,即: f=argmax{p(f|g)=p

2013-01-30 11:40:42 1638

原创 正态分布 密度函数与分布函数

概率密度函数(在不至于混淆时可以简称为密度函数)是一个描述这个随机变量的输出值在某一个确定的取值点附近的可能性的函数。而随机变量的取值落某个点的概率 是零落在在某个区域之内的概率则是概率密度函数在这个区域上的积分。分布函数F(X)的一阶导数为概率密度函数分布函数F(X)定义:设X是一个随机变量,x是任意实数,函数F(x)=P{X≤x}  物质的双体分布函数示

2013-01-06 15:55:53 8377

原创 tx——conv

对图像的滤波,就是领域处理,对领域中像素的计算为线性运算,则称次运算为空间线性滤波,也就是空间卷积对图像的像素求梯度就是,对领域求差分,前向差分和后向差分。线性滤波 中 相关和卷积相关是核在图像中移动后的响应卷积是核旋转180度以后再移动的响应所以通常为了使用卷积函数计算相关 我们先将核旋转180度

2013-01-06 14:12:06 409

原创 梯度下降法 简记

又看到 又用到 梯度下降法再次总结一个变量x 一个函数 f(x)梯度下降法就是为了迭代出 一个x 是的在x点 f(x)能取到极值。一般来说 是f(x)的导数为零的点 就是这个x的取值 但是方程不好解 所以我们不解方程 我们用迭代x(k+1)=x(k)-Ita*deta_f(x)deta_f(x)怎么求?就是增量怎么求?首先明白增量是什么?deta_f(x)=g(x(

2012-11-25 13:26:32 509

原创 内积 外积

1.向量的内积 即 向量的的数量积 定义:两个非零向量的夹角记为〈a,b〉,且〈a,b〉∈[0,π]。 定义:两个向量的数量积(内积、点积)是一个数量,记作a·b。若a、b不共线,则a·b=|a|·|b|·cos〈a,b〉;若a、b共线,则a·b=+-∣a∣∣b∣。 2.向量的外积 即 向量的向量积 定义:两个向量a和b的向量积(外积、叉积)是一个向量,记作a×b。若a、b不共线,则a×b的模是:

2012-11-15 10:51:34 3620

原创 梯度下降法

梯度法尽管收敛速度较慢,但其迭代的几何概念比较直观,方法和程序简单,虽要计算导数,但只要求一阶偏导,存储单元较少。此外,当迭代点距目标函数极小点尚远时,无论目标函数是否具有二次性,梯度法开始迭代时的下降速度还是很快的。常常利用这个特点,将梯度法和其他方法配合使用构成更有效和实用的算法,在理论上梯度法仍不失为一种极为重要的基本优化方法。 例子:用梯度下降法求 的极小值。

2012-11-14 16:19:32 733

原创 Sigmoid函数

Sigmoid函数,即f(x)=1/(1+e-x)。神经元的非线性作用函数。人工神经网络的学习算法-BP算法神经网络的学习是基于一组样本进行的,它包括输入和输出(这里用期望输出表示),输入和输出有多少个分量就有多少个输入和输出神经元与之对应。最初神经网络的权值(Weight)和阈值(Threshold)是任意给定的,学习就是逐渐调整权值和阈值使得网络的实际输出和期望输出一致。

2012-11-12 11:33:55 635

原创 局部极小

神经网络在作为一种搜索策略的时候,受搜索算法的控制,当解空间函数存在局部最小值时,如果搜索步长较小(动量较小),那么有可能在这个局部求解时求得的所有解都指向了极小值的方法,就是陷入的局部最小。以BP为例,他是按照误差下降的最大梯度方向搜索,就好像地下有个坑,他是按照坡度最大方向找最低点,搜索步长就是迈的步长,走一步后找最大坡度方向迈下一步,如够一步不能迈出这个坑,那么你就永远在这个坑内转悠了。

2012-11-12 09:32:59 808

原创 泰勒公式

在数学中,泰勒公式是一个用函数在某点的信息描述其附近取值的公式。如果函数足够光滑的话,在已知函数在某一点的各阶导数值的情况之下,泰勒公式可以用这些导数值做系数构建一个多项式来近似函数在这一点的邻域中的值。泰勒公式还给出了这个多项式和实际的函数值之间的偏差。

2012-10-29 14:18:32 792

原创 范数

从一个线性空间到另一个线性空间的线性映射,可以用一个矩阵来表达,矩阵被看线性作映射,线性映射的性质可以通过研究矩阵的性质来获得,比如矩阵的秩反映了线性映射值域空间的维数,可逆矩阵反映了线性映射的可逆,而矩阵的范数又反映了线性映射的哪些方面的性质呢?矩阵范数反映了线性映射把一个向量映射为另一个向量,向量的“长度”缩放的比例。范数是把一个事物映射到非负实数,且满足非负性、齐次性、三角不等式,符合以

2012-10-29 09:40:18 878

转载 仿射变换

几种典型的仿射变换:  public static AffineTransform getTranslateInstance(doubl  仿射变换-例e tx, double ty)  平移变换,将每一点移动到(x+tx, y+ty),变换矩阵为:  [ 1 0 tx ]  [ 0 1 ty ]  [ 0 0 1 ]  (译注:

2012-10-19 16:33:18 1302

原创 SIFT读书笔记

*****************************************************************************************************************变分在数学和物理里面都有,学物理的人用的时候都不是那么严格,一般来说函数对自变量我们用偏导,而泛函的自变量是函数,对函数就只能用变分了。物理上变分法一般是让泛函的自变量(

2012-10-17 09:42:45 769

原创 PCA

PCApca一句话:就是 多张人脸构成的矩阵b减去平均脸得矩阵a  求a的协方差矩阵c=aaT  的特征向量 已达到降维的目的。接下来就是将每张图片在这M个特征向量上做投影,得到一个M维的权重向量w=(w1,…wM),一个人可能有多张图片,于是将对应于这个人的权重向量做一个平均作为这个人的权重向量。然后对于每个新来的人脸,先求得一个权重向量,然后与人脸库中每个人的权重向

2012-10-06 19:00:13 608

原创 时域 频域

点解 :时域 频域   频谱图的物理意义:频域是时域的倒数。 横坐标是频率,纵坐标是振幅, 频谱图可以用来表示声音频率与能量的关系,就像一个声音一般由各种不同频率声音信号组成,每个频率的信号幅值都不一样,就形成了频谱图,一个频谱图就可以表示一个复合信号(例如声音)。 **************************

2012-10-06 18:59:35 5988

原创 戏说:卷积

戏说:卷积 卷积 在图像中其实就是乘积 求和 替代 已达到 平滑或者过滤的效果参考公式xiaojiang同学,最近总是和卷积打交道,工作需要,每天都要碰到它好几次,不胜烦恼,因为在大学时候学信号与系统的时候就没学会,我于是心想一定要把卷积完全搞明白。正好同办公室的同学也问我什么是卷积,师姐昨天也告诉我说:“我也早就想把这个问题搞明白了!”经过一段时间的思考之后,有一些很

2012-10-06 18:59:12 790 1

原创 最小2乘法

最小2乘法  最小2乘法直线拟合在我们研究两个变量(x, y)之间的相互关系时,通常可以得到一系列成对的数据(x1, y1、x2, y2... xm , ym);将这些数据描绘在x -y直角座标系中(如图1),若发现这些点在一条直线附近,可以令这条直线方程如(式1-1)。 Y计= a0 + a1 X                    (式1-

2012-10-06 18:57:39 1457

原创 IcP(Iterative closest Point)最近点迭代法和NFc

IcP和NFcIcP(Iterative closest Point)最近点迭代法和NFc(normal flow constraint)光流约束 相结合的头部运动跟踪在ICP实现中计算匹配点的时候是考虑点到平面的距离而不是点到点的距离,具体说就是对于第一幅距离图像中的一个给定点,计算出第二幅距离图像中的所有点的切平面到该点的距离,并选出距离最小的那个点作为对应点。

2012-10-06 18:56:49 881

原创 梯度

导数,就是函数在该点的切线的斜率。所以 导数为零的地方可能是极值也可能是拐点。物理参数的梯度,也即该物理参数的变化率什么是标量亦称“无向量”。有些物理量,只具有数值大小,而没有方向,部分有正负之分。这些量之间的运算遵循一般的代数法则,称做“标量”。如质量、密度、温度、功、能量、路程、速率、体积、时间、热量、电阻、功率、势能、引力势能、电势能等物理量。无论选取什么坐标系,标量

2012-10-06 18:55:33 649

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除