线扫激光算法原理

点击上方“小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达390e3d1801b0dbe70f748ebf03808e8c.jpeg

 
 
一:线扫激光算法原理
激光器发出的激光束经准直聚焦后垂直入射到物体表面上,表面的散射光由接收透镜成像于探测器的阵列上。光敏面于接收透镜的光轴垂直。如图:
当被测物体表面移动x,反应到光敏面上像点位移为x’。a为接收透镜到物体的距离(物距),b为接收后主面到成像面中心的距离(一般取焦距f),θ为激光束光轴与接收透镜之间的夹角。D为激光光束轴到透镜中心的距离。接收透镜的焦距为f,其余的参数如下图:

在△ABC中,由正弦定理的:
将上式整理得:
在直角三角形△CDE (∠CDE=90°)中, 
   将其带入到上式,得:(远离透镜)。
上式为远离透镜的公式,靠近基准面的公式刚好相反:(靠近透镜)。
二:参数计算和选取
通过上面的算法推导,我们可以看出在整个公式中,我们需要得到的参数有两个,a(接收透镜到物体的距离(物距))和θ(激光束光轴与接收透镜之间的夹角)。
2.1参数的计算
(1)参数计算的原理
因为公式中有两个未知的参数a和θ,那么想要求得这两个未知参数,我们可以通过得到两组已知的(x,x’)来列出两个二元一次方程组来求解。
假设两组已知的参数为(X1,X1’)(X2,X2’),通过推导过程的公式如下(以靠近透镜为例):
通过计算得出:
将求出的θ带去上式可以得出a.
(2)参数计算结果
在计算参数的样本选取中,为了尽可能的提高精度,我们在靠近基准面的样本中选取的计算组合分别为(1mm,2mm),(1mm,3mm),(1mm,4mm),(1mm,5mm),(1mm,6mm),(1mm,7mm),(1mm,8mm),(1mm,9mm),(1mm,10mm),总共9组数据。那么我们在一次采样中可以得出9   组数据。
2.2参数的选取
在整个的实验过程中,后期计算参数a和θ时,我们总共采样了五次数据,每次数据得到的9组参数,通过45组数据来计算整个样本的位移。观察误差值得大小,我们总共选取了三组参数,综合比对发现当比值a/(f*sinθ)为31.5~31.7且a>200时,计算出的误差偏小且在测量的范围内保持一定趋势。(这为我们后面的非线性拟合的误差补偿提供了基础)
三:相机的标定
3.1单目相机标定的目的
  获取摄像机的内外参数矩阵,同时也会获得每一幅标定图像的选择和平移矩阵,内参数矩阵和畸变向量可以对之后相机拍摄的图像进行矫正,得到畸变相对很小的图像。
3.2相机标定的输入和输出
   相机标定的输入为22*22单位长度为1mm/格的棋盘格图像。总共12张。
相机标定的输出为:内参数矩阵(fx,fy,Cx,   Cy)和畸变向量(k1,k2,p1,p2,p3)
ps(注意,这里有两个不同的焦距fx,fy。因为单个像素点在低价成像仪上是矩形而不是正方形。实际上焦距fx=f*Sx.    f为实际的物理焦距长度,Sx为x方向的像元尺寸。同理fy=f*Sy)
3.3用到的工具
硬件:巴士勒相机,摄像头(f=25mm)、棋盘格标定板
软件:VS+OPENCV
3.4标定的结果

四:样本采集
样本采集我们有两种方式,第一种方式为用标准块来采集。第二种方式是通过千分尺来采集。我们采用第二种方式进行采集样本。采集的过程为以整个图像的中心为起点(作为基准面),每隔0.1mm取一次图像,取到图像的边界。通过上述取样本,我们得出位移的取值范围为-30.0mm到+30.0mm。
五:计算结果
通过上述的参数计算,相机标定以及样本采集之后,我们开始计算结果,在选曲的三组参数,来计算结果得到的误差,在附件1中。
六:误差补偿
在得出误差之后,我们发现误差的变化是具有趋势的。随着位移的增大误差是逐渐增大的。从计算结果偏小逐步到计算结果偏大。在这里我们取得误差补偿算法为基于最小二乘法的非线性拟合。拟合的方程如下:
Y=a0+a1x+a2x^2+a3x^3
方程中x代表的是像素位移,Y代表的是误差。通过拟合之后的误差方程和整个算法进行融合及拟合后的求取误差为
位移=原算法-误差方程
最后通过误差补偿的结果得到的误差,在附件2中。
七:实验中遇到的问题
(1)算法上的改进
第一:在位移算法上遇到的问题刚开始在推算的过程中,忽略了一个多项式导致后面在计算的过程中误差偏大,后面采用了三角函数的算法,整个精度的提升很明显。
第二:在参数计算的算法推导过程中,出现了一个错误靠近基准面和远离基准面的算法是不一样的。这里出现了一个推导错误。后来重新推导之后改正了过来。
第三:在参数的选取上,刚开始的理解是在参数计算之后参数如果越接近实际的a和θ,计算出来的结果越真实。后来经过试验发现这样的选取准则是不正确的。而且不同组的样本计算出的a和θ是不一样的。最后通过分析得出,虽然计算出的a和θ是不一样的,但是a/(f*sinθ)的比值几乎是一致的。后面选取参数是选择误差小的。
第四:后面在观察误差的时候发现在0.1mm的位移时,同一组参数不同样本的计算结果都是一样偏大的。在实际的测量过程中我们观测到0.1mm的位移,通常对应的是0.6左右个像素。通过观察程序发现了把像素float型转换成int型导致这个误差结果。后面改过来之后,误差明显变小了。
(2)结构上的改变
在中期的试验中,我们改进镜头和相机的结构,来改善景深,但是后来我们通过试验发现原有的结构景深也是足够用的,所以后面的试验还是按照原来的结构来。
(3)线激光的中心点提取原则
在整个计算过程中,每次计算位移的结果,我们要提取每行的线激光的中心坐标,刚开始计算的算法为边缘二分法,取中点坐标。这种算法偏差较大。在后面通过阅读文献,采用了灰度质心算法。在后面的计算中,都是采用这个算法。在0.01mm的位移下,发现这个算法是有效的,检测到像素的位移在0.07个像素左右。
八:总结
通过以上的一系列实验,我们可以达到的误差精度是0.01mm左右,现在取得的样本在±10mm的范围内。但是整个容许的测量范围是±30mm。接下来可以实验的内容:
第一:可以以0.01mm为频率采样(这样在补偿后结果更精确)。
第二:样本计算扩大到整个测量范围。
第三:采用千分尺采样时,人为读书的误差是无法避免的,后期测量的时候需进行改进。
转自:https://blog.csdn.net/wangjie36/article/details/104809465

声明:部分内容来源于网络,仅供读者学习、交流之目的。文章版权归原作者所有。如有不妥,请联系删除。

下载1:OpenCV-Contrib扩展模块中文版教程

在「小白学视觉」公众号后台回复:扩展模块中文教程,即可下载全网第一份OpenCV扩展模块教程中文版,涵盖扩展模块安装、SFM算法、立体视觉、目标跟踪、生物视觉、超分辨率处理等二十多章内容。


下载2:Python视觉实战项目52讲
在「小白学视觉」公众号后台回复:Python视觉实战项目,即可下载包括图像分割、口罩检测、车道线检测、车辆计数、添加眼线、车牌识别、字符识别、情绪检测、文本内容提取、面部识别等31个视觉实战项目,助力快速学校计算机视觉。


下载3:OpenCV实战项目20讲
在「小白学视觉」公众号后台回复:OpenCV实战项目20讲,即可下载含有20个基于OpenCV实现20个实战项目,实现OpenCV学习进阶。


交流群

欢迎加入公众号读者群一起和同行交流,目前有SLAM、三维视觉、传感器、自动驾驶、计算摄影、检测、分割、识别、医学影像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描下面微信号加群,备注:”昵称+学校/公司+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。请勿在群内发送广告,否则会请出群,谢谢理解~
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值