自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(56)
  • 资源 (13)
  • 收藏
  • 关注

原创 (windows)python安装opencv

1.到这里下载对应python版本的opencv ,我是 64位 python2.7,对应的版本是opencv_python‑3.1.0‑cp27‑cp27m‑win_amd64.whl 2.使用命令pip install “opencv的路径”/opencv_python‑3.1.0‑cp27‑cp27m‑win_amd64.whl 3.测试 打开cmd命令行, 输入 pyt

2017-11-08 17:30:16 878

原创 unity3d安装后打开失败(crashes while startup after install)

参考链接报错窗口忘记截图了,就不贴了。。。。安装unity3d后,满怀激情的双击打开,然而却报错了(crashes), google后找到原因: 因为unity3d与 Lavasoft公司一些软件冲突。。。 解决方法: 1、打开控制面板,卸载所有Lavasoft公司的软件 2、进入目录 ‘C:/windows/system32’ 和‘C:/windows/SysWOW64’搜索Lavas

2017-07-01 12:09:53 1465

原创 三维模型的normal map

所谓normal map其实就是由三维点的normal的x,y,z分量计算得到一个RGB值,作为该三维点在2维图像上的颜色值,若normal已知,则计算公式为: RGB = ((N+1)./2).*255 其中N是normal,加上1是为了避免负值,这样可以保证RGB每每个分量都在0-255之间

2017-04-21 21:55:27 1521

转载 matlab imshow显示图像

转载自 在matlab中,我们常使用imshow()函数来显示图像,而此时的图像矩阵可能经过了某种运算。在matlab中,为了保证精度,经过了运算的图像矩阵A其数据类型会从unit8型变成double型。如果直接运行imshow(A),我们会发现显示的是一个白色的图像。这是因为imshow()显示图像时对double型是认为在0~1范围内,即大于1时都是显示为白色,而imshow显示uint8型时

2017-03-17 16:25:58 4477

原创 vs Debug Assertion Failed

VS运行程序时遇到错误 这种情况是因为有变量没有分配存储空间,而直接使用; 例如:std::vector<int> aa;aa[10];应该写成下面的形式:std::vector<int> aa;aa.resize(100);aa[10];

2016-12-18 00:05:32 7304 1

原创 NOTE: Color Map Optimization for 3D Reconstruction with Consumer Depth Cameras

计算雅可比矩阵时要求残差的偏导数: ri,p=C(p)−Γi(u(g(p,Ti)))r_{i,p} =C(p)-\Gamma_i\mathrm{(u(g(p,T_i)))} ∂rip∂α=∂Γi(u(g(p,Ti)))∂α=∂Γi∂u∗∂u∂α\frac{\partial{r_{ip}}}{\partial{\alpha}}=\frac{\partial{\Gamma_i\mathrm{(u(

2016-12-14 21:26:53 1935 3

原创 libigl +vs2015 属性表配置

使用libigl时,按照官方说明是,只需要将头文件目录添加到项目的附加头文件目录中就可以,但是不知为何编译时还是需要静态链接库。。。。。编译时也遇到了一些其他的小问题,在此记录下来: 首先添加头文件目录(请根据实际情况适当修改,我是把libigl放到了”D:\github”目录下): 然后是附加库目录: 最后是input中的附加依赖库: shell32.lib ole32.lib

2016-11-29 12:03:52 4248 2

原创 编译trimesh2遇到问题:The POSIX name for this item is deprecated. Instead, use the ISO C++ conformant names

原因很明显,之前的函数在新标准中被修改了 这里使用的是”strnicmp”, 要修改成”_strnicmp” 在TriMesh_io.cc开头添加“#define strnicmp _strnicmp”问题解决

2016-06-23 16:39:38 904

原创 Windows编译Caffe指南

下载1.下载caffe GitHub - BVLC/caffe at windows

2016-06-16 15:12:21 1352

原创 To disable this warning, use -D_SCL_SECURE_NO_WARNINGS

编译caffe时遇到问题: 错误 35 error C4996: ‘std::_Copy_impl’: Function call with parameters that may be unsafe - this call relies on the caller to check that the passed values are correct. To disable this war

2016-06-15 16:54:52 1627

转载 图像放缩中最近邻插值和双线性插值的基本原理

转自http://blog.csdn.net/andrew659/article/details/4818988图像的缩放很好理解,就是图像的放大和缩小。传统的绘画工具中,有一种叫做“放大尺”的绘画工具,画家常用它来放大图画。当然,在计算机上,我们不再需要用放大尺去放大或缩小图像了,把这个工作交给程序来完成就可以了。下面就来讲讲计算机怎么来放大缩小图象;在本文中,我们所说的图像都是指点阵图,也就是

2016-05-24 10:09:54 594

原创 opencv fatal error:模块计算机类型“X86”与目标计算机类型“x64”冲突

在vs2010中运行使用opencv3.1时报错模块计算机类型“X86”与目标计算机类型“x64”冲突。 原因是我使用的很多第三方库都是用的64位的,因此在vs下编译时选择的64位编译器,但是opencv3.1官方并未提供vs2010的库,因此在vs2010,2011等低版本上需要自己cmake编译,且cmake编译时必须选择生成64位的。问题解决。 在网上也搜到了一些类似问题的解决方案,下面直

2016-04-26 21:58:17 3625

转载 增强学习-马尔科夫决策过程

转载http://www.cnblogs.com/jerrylead/archive/2011/05/13/2045309.html在之前的讨论中,我们总是给定一个样本x,然后给或者不给label y。之后对样本进行拟合、分类、聚类或者降维等操作。然而对于很多序列决策或者控制问题,很难有这么规则的样本。比如,四足机器人的控制问题,刚开始都不知道应该让其动那条腿,在移动过程中,也不知道怎么让机器人自

2016-04-24 00:17:39 1901

转载 独立成分分析(Independent Component Analysis)

转载http://www.cnblogs.com/jerrylead/archive/2011/04/19/2021071.html问题:1、上节提到的PCA是一种数据降维的方法,但是只对符合高斯分布的样本点比较有效,那么对于其他分布的样本,有没有主元分解的方法呢?2、经典的鸡尾酒宴会问题(cocktail party problem)。假设在party中有n个人,他们可以同时说话,我们也在房间中

2016-04-23 20:04:10 474

原创 pcl - warning - libboost_system-vc100-mt-gd-1_50.pdb

今天用vs编译完pcl后,链接时出现好多警告: 后来确定,这并不影响使用。 可以到pcl官网下载pbd文件,解压后,将里面的文件复制到PCL\bin下面,问题解决。如果是类似libboost_system-vc100-mt-gd-1_50.lib没找到的话,肯定是附加库目录没添加好在pcl样例中,连接器->lib中的有些库是下面这样写在里面的: ……\lib\pcl_visualizati

2016-04-22 22:02:57 819

原创 PCL - boost库与标准库冲突

之前已经编译好了PCL,但是实际使用中我可不想直接去修改那些样例程序。so,新建个工程,配置个属性表以后用。但是却遇到下面的问题: 很明显,产生冲突了!!! 参考了chen_nan的这个博客了解到: boost等第三方库,是便利程序的平台移植而辅助添加的C++准标准库。但有时程序运行会报错,会出现某某(如:time_t)等不是std里的成员等,不是using某命名空间等错误,严重的,直接找不到

2016-04-22 20:46:38 4944

转载 主成分分析(PCA)-理论基础

转载 http://www.cnblogs.com/jerrylead要解释为什么协方差矩阵的特征向量可以将原始特征映射到 k 维理想特征,我看到的有三个理论:分别是最大方差理论、最小错误理论和坐标轴相关度理论。这里简单探讨前两种,最后一种在讨论PCA 意义时简单概述。最大方差理论在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。如前面的图,样本在横轴上

2016-04-21 16:50:30 5132

转载 主成分分析(PCA)-介绍

转载 http://www.cnblogs.com/jerrylead问题真实的训练数据总是存在各种各样的问题:1、 比如拿到一个汽车的样本,里面既有以“千米/每小时”度量的最大速度特征,也有“英里/小时”的最大速度特征,显然这两个特征有一个多余。 2、 拿到一个数学系的本科生期末考试成绩单,里面有三列,一列是对数学的兴趣程度,一列是复习时间,还有一列是考试成绩。我们知道要学好数学,需要有浓厚的

2016-04-21 13:58:23 974

转载 因子分析

转载 http://www.cnblogs.com/jerrylead问题之前我们考虑的训练数据中样例x(i)x^{(i)}的个数 m 都远远大于其特征个数 n,这样不管是进行回归、聚类等都没有太大的问题。然而当训练样例个数 m 太小,甚至 m<<nm<<n 的时候,使用梯度下降法进行回归时, 如果初值不同, 得到的参数结果会有很大偏差(因为方程数小于参数个数)。另外,如果使用多元高斯分布(Mul

2016-04-18 23:33:08 2035

转载 VS2010界面主题更换全过程

VisualStudio 2010的界面默认是蓝色的,背景是白色,字体是宋体,这些设置习惯了还好,但是可能看多了不怎么舒服。而且如果以前是用VS 6.0的知道,它使用的字体更为舒服清晰。所以,可以对VS 2010的界面做一次大换洗。  1、使用界面主题  在微软VisualStudio的官网下载一款名为Visual Studio Color Theme Editor的VS插件,

2016-04-18 13:38:15 1017

原创 关于kinfu的配置问题,pcl_kinfu_largeScale

1、配置pcl,在cmake时需要勾选CUDA和GPU 2、若要使用kinfu,必须要有英伟达的显卡,且显存据说至少七百多M。 3、去NVIDIA官网下载安装最新版CUDA。下面是我遇到的一个问题,还没解决,望知情人士劳驾告知,万分感谢! 在编译pcl中的pcl_kinfu_largeScale时报错如下: 根源在这: 不知道有谁遇到过没,如果知道希望留言告知,万分感谢!

2016-04-16 21:26:52 2852 3

原创 EM算法-数学原理及其证明

参考http://blog.csdn.net/zouxy09/article/details/8537620 参考 http://www.cnblogs.com/jerrylead之前介绍了EM算法在混合高斯模型中的应用,现在让我们来看看问什么EM算法可以用于这类问题。 首先介绍一下Jensen 不等式Jensen 不等式我们知道,如果设 ff 是定义域为实数的函数,如果对于所有的实数xx

2016-04-16 20:52:43 32691 17

原创 EM(Expectation-Maximization)算法-问题引入

参考 http://www.cnblogs.com/jerrylead高斯混合模型下图以一维坐标系中的几个样本为例来说明混合高斯模型 由图中可以看出,样本的分布情况可以由两个高斯分布来近似表示。这玩意就叫混合高斯模型。 简单的说就是:m个样本{x1,...xm}\{x_1,...x_m\},可以分为k类,每个类别都服从高斯分布。EM算法给定训练样本{x1,...xm}\{x_1,...x_

2016-04-14 15:59:53 3788

原创 K-means聚类

参考 http://www.cnblogs.com/jerrylead聚类就是将样本{x1,x2,...xnx_1,x_2,...x_n}按照属性分类,注意这里样本的表已经不再是(x,y)了,现在只有属性x,因此聚类属于非监督学习法。K-means聚类,就是将样本分为k类,其思想是: 1、先随机选择k个聚类中心(即随机选择k个样本) 2、将每个样本划分到与它距离最小的中心所属类别 3、根据2

2016-04-14 09:35:30 579

原创 学习理论-在线学习

之前的学习方法都是使用大量样本训练一个模型,然后使用模型去做预测,这里方法称为batch learning(批学习)。 这里让我们来看看另一种学习方式,online learning(在线学习)。 在线学习与批学习的不同之处是,在线学习在训练的同时也做出预测,之后系统将预测是否正确反馈给学习系统,进而更新参数。假如我们有样本(x(1),y(1)),(x(2),y(2)),...,(x(m),y(

2016-04-13 20:45:55 7523

原创 xbox360 +openni使用问题

xbox360上的kinect是第一代的,因此只能使用openni1.*,而不能使用openni2.* 同时openni1.*的一些库在vs2010以后的版本上编译无法通过,因此只能使用vs2010+openni1.* 另外不同版本的openni1.*要配合不同的primesenser使用,否则变异会出错,还需要安装NITE。后来选择了pcl官网上的all-in-one版本,但是,不知为何安装过

2016-04-12 10:28:43 1098

原创 学习理论-贝叶斯统计和正则化

之前为了降低产生过拟合的可能性,我们从样本的所有属性中选取一部分属性集用以训练模型,这里介绍一种防止过拟合的不同的方法—正则化,这种方法会保留所有参数。

2016-04-11 21:10:26 4015

原创 学习理论-模型选择-3-模型训练规则、特征选择

假设可选的模型集合是M={M1,M2,...,Md}\mathcal M=\{ M_1,M_2,...,M_d\},它可能包含了 SVM、logistic回归、神经网络等模型。 在上一篇中我们已经知道,我们要选择使得泛化误差ϵ(h^)\epsilon(\hat h)最小的模型,这时为了选择模型,我们可能会想到如下方法: 1、用训练样本去训练M\mathcal M中的每一个模型,之后便可以的到每个

2016-04-11 10:04:01 2860

原创 学习理论-模型选择-2-训练样本数量与误差上界

在模型选择-1-问题引入中我们知道,我们要获得尽可能小的泛化误差。下面让我们一起看看泛化误差与样本数量和模型数量的关系。当H\mathcal H中模型数有限时证明一致收敛性我们假设H={h1,...,hk}\mathcal H =\{h_1,...,h_k\},这里只考虑二分类情况,即H\mathcal H中每个模型都能够将样本X\mathcal X映射到{0,1}\{0,1\}。 假如选定H\m

2016-04-09 23:33:36 8903

原创 学习理论-模型选择-1-问题引入

问题引入偏差与方差的权衡是统计学中最核心的问题,在机器学习中,它们是导致欠拟合和过拟合的原因。 对于线性回归问题,我们到底是该选择简单的线性模型y=θ0+θ1xy=\theta_0+\theta_1x还是选择诸如y=θ0+θ1x+...+θ5x5y=\theta_0+\theta_1x+...+\theta_5x^5这样复杂些的模型呢?我么先看下图 上图我们之前就见到过,最左面的为欠拟合,因

2016-04-09 13:08:01 1162

原创 分类-3-生成学习-3-朴素贝叶斯模型、laplace平滑、多元伯努利事件模型、多项式事件模型

参考 http://www.cnblogs.com/jerrylead多元伯努利事件模型( multi-variate Bernoulli event model)在 GDA 中,我们要求特征向量 x 是连续实数向量。如果 x 是离散值的话,可以考虑采用朴素贝叶斯的分类方法。 假如要分类垃圾邮件和正常邮件。 我们用一个向量x⃗ (m×1)表示一个包含m个单词的字典。当邮件中出现字典(x⃗ )中

2016-04-06 21:26:55 6969

原创 分类-3-生成学习-2-高斯判别分析、协方差

参考 http://www.cnblogs.com/jerrylead多元高斯分布多变量高斯分布描述的是n维随机变量的分布情况,这里的μ变成了向量,σ也变成了矩阵Σ。写作N(μ,Σ)。其中Σ(协方差矩阵)是一个半正定的矩阵,μ是高斯分布的均值,下面给出它的概率密度函数:多变量高斯分布描述的是 n维随机变量的分布情况,这里的\mu变成了向量, \sigma也变成了矩阵\Sigma。写作\mathca

2016-04-06 15:09:39 4741

原创 分类-3-生成学习-1-问题引入

在之前的学习方法中,我们的目的是求p(y|x,θ),即求y在x的条件下的概率。例如在逻辑回归中我们的模型是hθ(x)=g(θTx),其输出结果就是预测样本属于某个类别的概率。对于二分类来说,它们的目的就是为了找到一个分割线(超平面)将样本划分为2类。当测试一个输入样本时,只需要看这个样本在分割线(超平面)的哪一侧。在之前的学习方法中,我们的目的是求p(y|x,\theta),即求y在x的条件下的概率

2016-04-05 20:52:15 703

原创 分类-2-softmax

softmax是一个可以解决多分类问题的方法。 假如我们的输出y∈{1,2,...,k}假如我们的输出y\in\{1,2,...,k\},即共有k个类别,而不是之前的二分类问题。 此时我们使用ϕ1,...,ϕk\phi_1,...,\phi_k来表示输出,即样本属于每个类别的概率。显然对于任意的一个样本有ϕ1+...+ϕk=1\phi_1+...+\phi_k=1,故ϕk\phi_k可由其他ϕ表

2016-04-03 21:10:55 1834

原创 分类-1-逻辑回归(Logistic regression)、感知学习算法(perceptron learning algorithm)、牛顿迭代法

逻辑回归(Logistic regression)我们现在只考虑二分类,即y∈{0,1}y\in \{0,1\}。 类似于线性回归问题,我们同样定义一个估计(hypothesis)函数hθ(x)h_\theta(x)。显然我们的输出值要限定在{0,1}\{0,1\}之间会更加有利。因此选择模型: hθ(x)=g(θTx)=11+e−θTxwhereg(z)=11+e−zh_\theta(x)=g

2016-04-02 18:02:31 3075

原创 线性回归-5-代价函数

还记的我们的代价函数吧:J=12∑mi=1(y(i)−θTx(i))2还记的我们的代价函数吧:J=\frac{1}{2}\sum^m_{i=1}(y^{(i)}-\theta^Tx^{(i)})^2现在让我们来看看为什么选择它来作为代价函数。 假设我们的模型如下: y(i)=θTx(i)+ε(i)y^{(i)}=\theta^Tx^{(i)}+ \varepsilon^{(i)} 其中ε(i)

2016-04-02 16:04:33 2174 1

原创 线性回归-4-欠拟合、过拟合与局部加权线性回归

欠拟合、过拟合在线性回归问题中,我们可以通过改变θ的个数或者x的指数大小来获得不同形状的拟合曲线\theta的个数或者x的指数大小来获得不同形状的拟合曲线看下面的图: 左边的曲线是在假设y=θ0+θ1xy=\theta_0+\theta_1x时的拟合结果,但显然中间的曲线要比左边的拟合效果更好。我们称左边的情况为欠拟合(underfitting)。 这样看来右边的不是比左边更好吗?!。。。N

2016-04-02 14:46:45 1861

原创 线性回归-3-最小二乘法

矩阵求导假设存在一个从矩阵到实数的映射:f:Rm×n↦Rf: \mathbb R^{m \times n} \mapsto \mathbb R。对于矩阵A我们定义f(A)f(A)的导数如下(它是输入矩阵的梯度): 因此∇Af(A)\nabla_A f(A)也是一个m×nm\times n的矩阵。假如,A到实数的映射f:R2×2↦R为:f(A)=32A11+5A212+A21A22f: \mat

2016-04-02 12:20:28 1326

原创 线性回归-2-梯度下降

考虑下面的训练样本: 我们希望通过房屋面积和卧室数量估计房屋价格。 这在里,输入xx是一个2维的向量。 并且我们用x(i)1x_1^{(i)}表示训练集中第ii个样本的第一个特征(这里是居住面积),用x(i)2x_2^{(i)}表示第ii个样本的卧室数。 首先我们假设y关于x的线性函数为: hθ(x)=θ0+θ1x1+θ2x2y关于x的线性函数为:\ h_\theta(x)=\theta

2016-03-29 11:31:50 548

原创 线性回归-1-问题引入

线性回归的目的是用训练样本拟合出一条曲线(或超平面)。假设我们有如下关于房屋价格和居住面积的样本数据: 我们可以将它画在二维表中如下: 利用这些数据,我们可以拟合出一条曲线,用以估计其它房屋的价格。在这里我们用x(i)x^{(i)}表示“输入”(即居住面积),也称之为特征;用y(i)y^{(i)}表示“输出”(即房屋中的价格)。对于一对x(i),y(i)x^{(i)},y^{(i)}我们称之

2016-03-29 10:34:57 560

实时人脸分割方法

当前比较可行的实时人脸分割方法

2016-04-17

斯坦福机器学习讲义-笔记下

斯坦福机器学习讲义时的笔记

2016-03-19

斯坦福大学讲义学习笔记-上

别人学习斯坦福机器学习讲义时的笔记

2016-03-19

斯坦福大学机器学习课件

斯坦福大学的机器学习讲义

2016-03-19

多元正态分布

多元正态分布原理及特点,很详细 从一维开始,然后二维,最后扩展到三维

2015-11-15

Hough Forests for Object Detection论文

Class-Specific Hough Forests for Object Detection论文原文及阅读时的注释,可能有错的地方忘指出。

2015-11-13

hough forest and regression forest

两篇关于hough forest and regression forest的论文阅读后写的ppt

2015-11-13

Class-Specific Hough Forests for Object Detection

自己阅读了Class-Specific Hough Forests for Object Detection 和一个回归森林的论文后写的汇报 如有错误还请指正 论文原文也已上传

2015-11-13

Random Forest随机森林

Random Forest 即随机森林的原理介绍

2015-09-30

最小二乘法

Least Square(最小二乘法)的原理的简单介绍

2015-09-30

ICP-迭代最近点算法原理

icp(迭代最近点)算法的基本原理的简单介绍原理

2015-09-30

Zstack中如何实现自己的任务

Zstack中如何实现自己的任务 帮你理清思路

2012-03-28

TI+Z-stack协议栈开发环境和工作流程.pdf

TI+Z stack协议栈开发环境和工作流程

2012-03-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除