来源丨https://blog.csdn.net/wangjie36/article/details/104809465
编辑丨新机器视觉
点击进入—>3D视觉工坊学习交流群
一、线扫激光算法原理
激光器发出的激光束经准直聚焦后垂直入射到物体表面上,表面的散射光由接收透镜成像于探测器的阵列上。光敏面于接收透镜的光轴垂直。如图:
当被测物体表面移动x,反应到光敏面上像点位移为x’。a为接收透镜到物体的距离(物距),b为接收后主面到成像面中心的距离(一般取焦距f),θ为激光束光轴与接收透镜之间的夹角。D为激光光束轴到透镜中心的距离。接收透镜的焦距为f,其余的参数如下图:
在△ABC中,由正弦定理的:
将上式整理得:
在直角三角形△CDE (∠CDE=90°)中,
将其带入到上式,得:
(远离透镜)。
上式为远离透镜的公式,靠近基准面的公式刚好相反:(靠近透镜)。
二、参数计算和选取
通过上面的算法推导,我们可以看出在整个公式中,我们需要得到的参数有两个,a(接收透镜到物体的距离(物距))和θ(激光束光轴与接收透镜之间的夹角)。
2.1、参数的计算
(1)参数计算的原理
因为公式中有两个未知的参数a和θ,那么想要求得这两个未知参数,我们可以通过得到两组已知的(x,x’)来列出两个二元一次方程组来求解。
假设两组已知的参数为(X1,X1’)(X2,X2’),通过推导过程的公式如下(以靠近透镜为例):
通过计算得出:
将求出的θ带去上式可以得出a.
(2)参数计算结果
在计算参数的样本选取中,为了尽可能的提高精度,我们在靠近基准面的样本中选取的计算组合分别为(1mm,2mm),(1mm,3mm),(1mm,4mm),(1mm,5mm),(1mm,6mm),(1mm,7mm),(1mm,8mm),(1mm,9mm),(1mm,10mm),总共9组数据。那么我们在一次采样中可以得出9 组数据。
2.2、参数的选取
在整个的实验过程中,后期计算参数a和θ时,我们总共采样了五次数据,每次数据得到的9组参数,通过45组数据来计算整个样本的位移。观察误差值得大小,我们总共选取了三组参数,综合比对发现当比值a/(f*sinθ)为31.5~31.7且a>200时,计算出的误差偏小且在测量的范围内保持一定趋势。(这为我们后面的非线性拟合的误差补偿提供了基础)
三、相机的标定
3.1单目相机标定的目的
获取摄像机的内外参数矩阵,同时也会获得每一幅标定图像的选择和平移矩阵,内参数矩阵和畸变向量可以对之后相机拍摄的图像进行矫正,得到畸变相对很小的图像。
3.2相机标定的输入和输出
相机标定的输入为22*22单位长度为1mm/格的棋盘格图像。总共12张。
相机标定的输出为:内参数矩阵(fx,fy,Cx, Cy)和畸变向量(k1,k2,p1,p2,p3)
ps(注意,这里有两个不同的焦距fx,fy。因为单个像素点在低价成像仪上是矩形而不是正方形。实际上焦距fx=f*Sx. f为实际的物理焦距长度,Sx为x方向的像元尺寸。同理fy=f*Sy)
3.3用到的工具
硬件:巴士勒相机,摄像头(f=25mm)、棋盘格标定板
软件:VS+OPENCV
3.4标定的结果
四、样本采集
样本采集我们有两种方式,第一种方式为用标准块来采集。第二种方式是通过千分尺来采集。我们采用第二种方式进行采集样本。采集的过程为以整个图像的中心为起点(作为基准面),每隔0.1mm取一次图像,取到图像的边界。通过上述取样本,我们得出位移的取值范围为-30.0mm到+30.0mm。
五、计算结果
通过上述的参数计算,相机标定以及样本采集之后,我们开始计算结果,在选曲的三组参数,来计算结果得到的误差,在附件1中。
六、误差补偿
在得出误差之后,我们发现误差的变化是具有趋势的。随着位移的增大误差是逐渐增大的。从计算结果偏小逐步到计算结果偏大。在这里我们取得误差补偿算法为基于最小二乘法的非线性拟合。拟合的方程如下:
Y=a0+a1x+a2x^2+a3x^3
方程中x代表的是像素位移,Y代表的是误差。通过拟合之后的误差方程和整个算法进行融合及拟合后的求取误差为
位移=原算法-误差方程
最后通过误差补偿的结果得到的误差,在附件2中。
七、实验中遇到的问题
(1)算法上的改进
第一:在位移算法上遇到的问题刚开始在推算的过程中,忽略了一个多项式导致后面在计算的过程中误差偏大,后面采用了三角函数的算法,整个精度的提升很明显。
第二:在参数计算的算法推导过程中,出现了一个错误靠近基准面和远离基准面的算法是不一样的。这里出现了一个推导错误。后来重新推导之后改正了过来。
第三:在参数的选取上,刚开始的理解是在参数计算之后参数如果越接近实际的a和θ,计算出来的结果越真实。后来经过试验发现这样的选取准则是不正确的。而且不同组的样本计算出的a和θ是不一样的。最后通过分析得出,虽然计算出的a和θ是不一样的,但是a/(f*sinθ)的比值几乎是一致的。后面选取参数是选择误差小的。
第四:后面在观察误差的时候发现在0.1mm的位移时,同一组参数不同样本的计算结果都是一样偏大的。在实际的测量过程中我们观测到0.1mm的位移,通常对应的是0.6左右个像素。通过观察程序发现了把像素float型转换成int型导致这个误差结果。后面改过来之后,误差明显变小了。
(2)结构上的改变
在中期的试验中,我们改进镜头和相机的结构,来改善景深,但是后来我们通过试验发现原有的结构景深也是足够用的,所以后面的试验还是按照原来的结构来。
(3)线激光的中心点提取原则
在整个计算过程中,每次计算位移的结果,我们要提取每行的线激光的中心坐标,刚开始计算的算法为边缘二分法,取中点坐标。这种算法偏差较大。在后面通过阅读文献,采用了灰度质心算法。在后面的计算中,都是采用这个算法。在0.01mm的位移下,发现这个算法是有效的,检测到像素的位移在0.07个像素左右。
八、总结
通过以上的一系列实验,我们可以达到的误差精度是0.01mm左右,现在取得的样本在±10mm的范围内。但是整个容许的测量范围是±30mm。接下来可以实验的内容:
第一:可以以0.01mm为频率采样(这样在补偿后结果更精确)。
第二:样本计算扩大到整个测量范围。
第三:采用千分尺采样时,人为读书的误差是无法避免的,后期测量的时候需进行改进。
本文仅做学术分享,如有侵权,请联系删文。
点击进入—>3D视觉工坊学习交流群
干货下载与学习
后台回复:巴塞罗那自治大学课件,即可下载国外大学沉淀数年3D Vison精品课件
后台回复:计算机视觉书籍,即可下载3D视觉领域经典书籍pdf
后台回复:3D视觉课程,即可学习3D视觉领域精品课程
3D视觉工坊精品课程官网:3dcver.com
1.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)
2.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进
3.国内首个面向工业级实战的点云处理课程
4.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解
5.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦
6.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化
7.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)
16.透彻理解视觉ORB-SLAM3:理论基础+代码解析+算法改进
重磅!粉丝学习交流群已成立
交流群主要有3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、多传感器融合、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、ORB-SLAM系列源码交流、深度估计、TOF、求职交流等方向。
扫描以下二维码,添加小助理微信(dddvisiona),一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。
▲长按加微信群或投稿,微信号:dddvisiona
3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列、三维点云系列、结构光系列、手眼标定、相机标定、激光/视觉SLAM、自动驾驶等)、源码分享、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答等进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,6000+星球成员为创造更好的AI世界共同进步,知识星球入口:
学习3D视觉核心技术,扫描查看,3天内无条件退款
高质量教程资料、答疑解惑、助你高效解决问题
觉得有用,麻烦给个赞和在看~