立体视觉
文章平均质量分 80
Eason.wxd
我是Eason,我喂自己袋盐...
展开
-
深度相机(二)--结构光深度测距
原文:http://blog.sina.com.cn/s/blog_80ce3a550100wg5j.htmlhttp://blog.csdn.net/u013360881/article/details/51395427网上资源:http://eia.udg.es/~qsalvi/recerca.html结构光编码:在3D 的深度获取上,最为常见的方法是类似于双目匹配获取深度...原创 2016-09-09 13:47:35 · 28383 阅读 · 1 评论 -
三维计算机视觉(四)--关键点
关键点又称为感兴趣的点,是低层次视觉通往高层次视觉的捷径,抑或是高层次感知对低层次处理手段的妥协。1.关键点,线,面 关键点=特征点; 关键线=边缘; 关键面=foreground; 上述三个概念在信息学中几乎占据了统治地位。比如1维的函数(信号),有各种手段去得到某个所谓的关键点,有极值点,拐点...二维的图像,特征点提取算法是标定算法的核心(harris),转载 2017-09-30 15:55:28 · 14569 阅读 · 2 评论 -
三维计算机视觉(七)--Spin image
Spin image是基于点云空间分布的最经典的特征描述方法。按照前篇博文所言,对于三维空间分布的点云匹配,也是有特征空间 、相似性度量、 搜索策略等要素,就特征空间而言,Spin image就是基于点云分布的特征描述。Spin image的思想是将一定区域的点云分布转换成二维的spin image,然后对场景和模型的spin images进行相似性度量。原理图如下:s转载 2017-10-07 12:20:55 · 14600 阅读 · 3 评论 -
双目测距(四)--罗德里格斯变换
原文:http://blog.sina.com.cn/s/blog_5fb3f125010100hp.html从今天开始,把自己学习OpenCV的心得记录下来,以系列的形式贴到博客中,以期交流与备查之用,笔记内容主要偏向于算法的理解。 处理三维旋转问题时,通常采用旋转矩阵的方式来描述。一个向量乘以旋转矩阵等价于向量以某种方式进行旋转。除了采用旋转矩阵描述外,还可以用旋转向量来描述旋转载 2016-07-26 10:27:32 · 9059 阅读 · 0 评论 -
双目测距(六)--三维重建及UI显示
原文:http://blog.csdn.net/chenyusiyuan/article/details/5970799在获取到视差数据后,利用 OpenCV 的 reProjectImageTo3D 函数结合 Bouquet 校正方法得到的 Q 矩阵就可以得到环境的三维坐标数据,然后利用 OpenGL 来实现三维重构。 OpenCV 与 OpenGL 的编程范例,我在学习笔记(转载 2016-07-26 13:30:22 · 7853 阅读 · 0 评论 -
三维计算机视觉(八)--点云配准
其实不想记录这一块内容,因为实在没啥新意,但又怕时间久了就忘记了。点云的配准有手动配准依赖仪器的配准,和自动配准,点云的自动配准技术是通过一定的算法或者统计学规律利用计算机计算两块点云之间错位,从而达到两块点云自动配准的效果,其实质就是把不同的坐标系中测得到的数据点云进行坐标系的变换,以得到整体的数据模型,问题的关键是如何让得到坐标变换的参数R(旋转矩阵)和T(平移向量),使得两视角下测得原创 2018-01-09 16:48:07 · 16449 阅读 · 2 评论 -
三维计算机视觉(六)--3DSC(3D形状上下文特征)
首先,3DSC特征是在2DSC的基础上扩展的,因此,先介绍2DSC。2D Shape Context形状上下文特征是一种很流行的形状描述子,多用于形状匹配,目标识别,它采用一种基于形状轮廓的特征描述方法,其在对数极坐标系下利用直方图描述形状特征能够很好地反映轮廓上采样点的分布情况。形状上下文的基本原理如下:Step1:对于给定的一个形状,通过边缘检测算子(如:canny算子)原创 2017-10-07 10:58:24 · 14889 阅读 · 4 评论 -
深度相机(七)--体感设备对比
华硕Xtion和微软kinect比较1. 产品外观2. 参数规格以下参数摘自华硕Xtion Pro外包装盒:l 有效距离:3.5米~0.8米l 有效角度:70◦l 电源/接口:USB 2.0l 传感器:深度探测l 支持平台:Intel X86 & AMD转载 2016-09-26 10:07:06 · 21228 阅读 · 0 评论 -
深度相机(八)--OpenNI及与Kinect for windows SDK的比较
OpenNI(开放自然交互)是一个多语言,跨平台的框架,它定义了编写应用程序,并利用其自然交互的API。OpenNI API由一组可用来编写通用自然交互应用的接口组成。OpenNI的主要目的是要形成一个标准的API,来搭建视觉和音频传感器与视觉和音频感知中间件通信的桥梁。OpenNI(开放式的自然交互)是一个由业界领导的非营利组织。该组织专注于提高和改善自然交互设备,应用软件的互操作能转载 2016-09-26 11:14:51 · 9542 阅读 · 0 评论 -
深度相机(九)--OpenNI API及中间件说明
本文由官方文档翻译而来 总览目的OpenNI 2.0 API(应用程序编程接口)提供了访问PrimerSense的兼容深度传感器。这就使得一个应用程序能够初始化传感器和从设备接收深度(depth),彩图(RGB)和红外(IR)视频流,还提供了一个统一的接口给传感器和通过深度传感器创建.oni记录文件。OpenNI也提供了第三方中间件开发者可以相互使用深度传感器的统一接口转载 2016-10-05 11:50:20 · 11014 阅读 · 0 评论 -
相机姿态估计(四)--AP3P
AP3P论文:An Efficient Algebraic Solution to the Perspective-Three-Point Problem从数学的角度,提出了经典P3P算法的更快,更鲁棒,更准确的求解算法。根据已知3对点,可以计算相机位姿和参数。问题定义:给定特征fi i = 1, 2, 3在参考坐标系中的位置,以及特征点在相机坐标系中的方向测量向量,目标是估计相机...原创 2018-08-28 10:54:29 · 15694 阅读 · 2 评论 -
相机姿态估计(五)--DLS
论文:A Direct Least-Squares (DLS) Method for PnP求解过程看着挺吃力的,看懂的还请多多指正。本文针对PnP问题,采用非线性最小二乘直接计算,主要贡献如下:1.提出通用的n点(n≥3)姿态(all pose)计算方法,设计了独特的非线性最小二乘代价函数。2.无初始化要求,性能接近极大似然(MLE)方法的结果3.非线性最小二乘代价函数不依赖...原创 2018-08-28 14:20:10 · 10281 阅读 · 2 评论 -
相机姿态估计(六)--EPnP
EnP算法,论文:EPnP: Efficient Perspective-n-Point Camera Pose Estimation直接给过程:相机坐标系用Fc,世界坐标系用Fw表示,任何一点可以用四个控制点p表示:对于相机坐标系同样成立:对于上面的公式,首先需要说明的是α确实存在。因为cw或cc构成的方程组是欠定的,所以一定存在解。理论上来说,控制点可以随便选择,这...原创 2018-08-29 14:17:47 · 15246 阅读 · 1 评论 -
三维计算机视觉(五)--特征描述子
PPF机器人视觉中有一项重要人物就是从场景中提取物体的位置,姿态。图像处理算法借助Deep Learning 的东风已经在图像的物体标记领域耍的飞起了。而从三维场景中提取物体还有待研究。目前已有的思路是先提取关键点,再使用各种局部特征描述子对关键点进行描述,最后与待检测物体进行比对,得到点-点的匹配。个别文章在之后还采取了ICP对匹配结果进行优化。 对于缺乏表面纹理信息,或局部曲率变化很小转载 2017-10-01 11:18:38 · 23814 阅读 · 3 评论 -
三维计算机视觉(二)--点云滤波
点云滤波的概念 点云滤波是点云处理的基本步骤,也是进行 high level 三维图像处理之前必须要进行的预处理。其作用类似于信号处理中的滤波,但实现手段却和信号处理不一样。我认为原因有以下几个方面:点云不是函数,对于复杂三维外形其x,y,z之间并非以某种规律或某种数值关系定义。所以点云无法建立横纵坐标之间的联系。点云在空间中是离散的。和图像,信号不一样,并不定义在某个区域上转载 2017-09-28 16:48:29 · 12186 阅读 · 2 评论 -
三维计算机视觉(一)--点云处理综述
转自:http://www.cnblogs.com/ironstark/p/4996929.html点云模型与三维信息 三维图像是一种特殊的信息表达形式,其特征是表达的空间中三个维度的数据。和二维图像相比,三维图像借助第三个维度的信息,可以实现天然的物体-背景解耦。除此之外,对于视觉测量来说,物体的二维信息往往随射影方式而变化,但其三维特征对不同测量方式具有更好的统一性。与相片转载 2017-09-28 16:39:36 · 21758 阅读 · 1 评论 -
深度相机(一)--TOF总结
1.1 TOF初探TOF是Time of flight的简写,直译为飞行时间的意思。所谓飞行时间法3D成像,是通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。这种技术跟3D激光传感器原理基本类似,只不过3D激光传感器是逐点扫描,而TOF相机则是同时得到整幅图像的深度信息。TOF相机与普通机器视觉成像过程也有类似之处,都是由光源转载 2016-09-09 13:33:29 · 16013 阅读 · 1 评论 -
深度相机(三)--三种方案对比
RGBD方案对比:关键技术规格:1.检测范围;2.检测精度;3.检测角度;4.帧率。5.模块大小6.功耗目前主流的深度摄像头方案在检测距离上、精度、检测速度上相差不大,区别在于:1、结构光方案优势在于技术成熟,深度图像分辨率可以做得比较高,但容易受光照影响,室外环境基本不能使用;2、TOF方案抗干扰性能好,视角更宽,不足是深度图像分辨率较低,做一些简单避障和视觉导航可以用,不适合高精度场合。受环境...原创 2016-09-12 11:16:24 · 36477 阅读 · 4 评论 -
相机姿态估计(三)--P3P
P3P论文:Complete Solution Classification for the Perspective-Three-Point Problem 我们首先需要知道的是P3P并不是直接根据3D-2D点求出相机位姿矩阵,而是先求出对应的2D点在当前相机坐标系下的3D坐标,然后根据世界坐标系下的3D坐标和当前相机坐标系下的3D坐标求解相机位姿的。P3P的求解是从余弦定理开始的,设相...原创 2016-07-29 11:27:45 · 15081 阅读 · 2 评论 -
相机姿态估计(二)--单目POSIT算法
3D姿态估计-POSIT算法POSIT算法,Pose from Orthography and Scaling with Iterations, 比例正交投影迭代变换算法:用于估计物体的3D姿态(相对于镜头的平移和旋转量)。算法正常工作的前提是物体在Z轴方向的“厚度”远小于其在Z轴方向的平均深度,比如距离镜头10米远的一张椅子。算法流程:假设待求的姿态,包括旋转矩阵R和平移转载 2016-07-26 21:53:33 · 12862 阅读 · 2 评论 -
相机姿态估计(一)--PnP
PnP(pespective-n-point)问题,就是已知的n个空间3D点与图像2D点对应的点对,计算相机位姿、或者物体位姿,二者是等价的。有个通俗,但很有用的解释:以下讨论中设相机位于点Oc,P1、P2、P3……为特征点。 Case1:当N=1时当只有一个特征点P1,我们假设它就在图像的正中央,那么显然向量OcP1就是相机坐标系中的Z轴,此事相机永远是面对P1,于是相机可能的位...原创 2016-07-26 21:49:52 · 48126 阅读 · 3 评论 -
双目测距(五)--匹配算法对比
参考:http://www.cnblogs.com/polly333/p/5130375.html三种匹配算法比较BM算法:该算法代码:view plaincopy to clipboardprint?CvStereoBMState *BMState = cvCreateStereoBMState(); int SADWindowSize=15; BMState-...原创 2016-07-26 13:21:41 · 27399 阅读 · 1 评论 -
双目测距(三)--立体匹配
原文:http://blog.csdn.net/chenyusiyuan/article/details/5967291立体匹配主要是通过找出每对图像间的对应关系,根据三角测量原理,得到视差图;在获得了视差信息后,根据投影模型很容易地可以得到原始图像的深度信息和三维信息。立体匹配技术被普遍认为是立体视觉中最困难也是最关键的问题,主要是以下因素的影响: (1) 光学失真和噪声(亮度、转载 2016-07-26 09:57:34 · 14825 阅读 · 2 评论 -
双目测距(二)--双目标定与矫正
原文:http://blog.csdn.net/chenyusiyuan/article/details/5963256双目摄像头定标不仅要得出每个摄像头的内部参数,还需要通过标定来测量两个摄像头之间的相对位置(即右摄像头相对于左摄像头的三维平移 t 和旋转 R 参数)。图6要计算目标点在左右两个视图上形成的视差,首先要把该点在左右视图上两个对应的像点匹配起来。然而,在二维空间转载 2016-07-26 09:34:59 · 10055 阅读 · 3 评论 -
双目测距(一)--图像获取与单目标定
原文:http://blog.csdn.net/chenyusiyuan/article/details/5961769双目测距的基本原理 如上图所示,双目测距主要是利用了目标点在左右两幅视图上成像的横向坐标直接存在的差异(即视差)与目标点到成像平面的距离Z存在着反比例的关系:Z=fT/d。假设目标点在左视图中的坐标为(x,y),在左右视图上形成的视差为d,目标点在以左转载 2016-07-26 09:27:58 · 10343 阅读 · 0 评论 -
深度相机(四)--Realsense概览
转自:http://blog.csdn.net/dfdfdsfdfdfdf/article/details/49990835Intel RealSense(实感技术)概览前段时间CES的报道满天飞,网上逛了几圈,感觉料最猛的还数Intel:老树开新花,推出14nm的第五代酷睿处理器;在智能可穿戴设备及物联网上雄起;RealSense实感技术开启未来人机交互模式。之前总听转载 2016-09-25 14:57:48 · 17342 阅读 · 1 评论 -
深度相机(六)--Kinect v2.0 手势样本库制作
今天的笔记主要是介绍Kinect的手势,目录为1.如何使用Kinect Studio录制手势剪辑;2.如何使用Visual Gesture Builder创建手势项目;3.如何在我的C#程序中使用手势;4.关于录制、剪辑手势过程中的注意事项 1.使用KInect Studio录制手势剪辑 1.1打开Kinect Studio这款程序,当你安装完成Kinect SDK 2转载 2016-09-25 22:59:17 · 11355 阅读 · 0 评论 -
深度相机(五)--Kinect v2.0
关于Kinect 网上资料很多,不做详细描述。这里主要记录一下V1.0和V1.2的区别。原文:http://www.cnblogs.com/TracePlus/p/4136297.html本文主要是对传感的配置和运行条件进行彻底的比较。 本连载介绍的Kinect for Windows Developer Preview是暂定的,软件、硬件以及API有可能因为最终的产品版发生变更转载 2016-09-25 22:20:07 · 17511 阅读 · 1 评论 -
相机姿态估计(七)--UPnP
论文:Exhaustive Linearization for Robust Camera Pose and Focal Length Estimation整体来看,UPnP跟EPnP差不多,只是同时估计了焦距,因此,适合未标定场合,Uncalibrated PnP.问题定义:p世界坐标系点参考点,C控制点,R,t姿态矩阵,u是p对应的2D投射点。建模为最小化P点的投影误差。...原创 2018-08-30 10:05:29 · 10047 阅读 · 1 评论