RTK和PPK技术科普

参考链接2:https://blog.csdn.net/hailiannanhai/article/details/78494366

RTK技术

RTK(Real - time kinematic,实时动态)载波相位差分技术,是实时处理两个测量站载波相位观测量的差分方法,将基准站采集的载波相位发给用户接收机,进行求差解算坐标。

也就是说,RTK需要有另外一个设备作为基准站,基准站接收到的卫星信号通过无线通信网实时发给用户。用户接收机将接收到的卫星信号和收到基准站信号实时联合解算,求得基准站和流动站间坐标增量(基线向量)。求解出的平面精度可达到1-2厘米。

相比较而言,普通搭载的GPS接收机,精度一般只能达到米级别。至于为什么搭载普通GPS的无人机也能做到稳定悬停,这就离不开其他系统的辅助,最重要的就是惯性导航系统,再辅以视觉识别和超声波定高等方式,即可让无人机做到在空中纹丝不动地“钉钉子”。

而具备RTK的飞机,只要将基站位置架在已知坐标点的位置上,就可以精确计算出移动站(也就是无人机)的精确位置。

RTK的工作原理,离不开基站和流动站直接、实时的无线电通讯。但是这样问题就来了,如果距离过远,是不是会跟我们飞机的遥控器一样失控而导致无法精准定位呢?这就是我们接下来要介绍的这项可以解决这个问题的这项技术。
在这里插入图片描述

PPK技术

PPK(post processed kinematic)技术,即动态后处理技术。其系统也和RTK一样,是由基准站和流动站组成。

PPK的工作原理,是利用进行同步观测的一台基准站接收机和至少一台流动接收机对卫星的载波相位观测量,并进行实时记录,省掉中间无线电传输的环节。在测量完成之后,使用GPS处理软件进行线性组合(也就是我们经常听到的后处理过程)。形成虚拟的载波相位观测量值,确定接收机之间厘米级的相对位置;然后进行坐标转换得到流动站在地方坐标系中的坐标。
在这里插入图片描述
PPK相较于RTK的优势,在于由于是事后处理,所以在测量过程中不受通讯距离的影响。并且由于省去了中间无线电传输的环节,其成本相较于RTK技术还有一定优势。

特别是无人机飞行距离比传统人工测量距离更远,容易受到山脉、建筑的影响,所以PPK的运用已经是相当成熟。

参考经验

目前高质量的RTK在小范围或者开阔的区域,理想作业半径可以达到10km,但在实际作业中,由于受到电台功率及数据链传输质量的影响,有效距离比标称的要小很多。

根据实际作业经验,基准站和流动站之间的距离最好限制在5 km以内,所以在大范围无人机航测工作中,RTK的优势就不太明显,动态测量数据后处理PPK技术(Post Processing Kinematic)因此应运而生。

作为RTK技术的重要发展,PPK采用快速求整周模糊度的技术,利用2-5个历元观测值就可以得到厘米级的三维坐标,不受通讯及地形的限制,且作业半径可以达到30km以上。

RTK技术与PPK技术比较

在这里插入图片描述
在这里插入图片描述

RTK与PPK精度比较

从数据对比中,可以看出两种作业模式在测量精度上相差无几。在小范围的作业区域内,RTK作业效率高,且可以实时提供高精度位置信息。在长距离大范围的作业区域内,尤其是带状区域,比如输电线路、公路、铁路、油气管道,PPK将是最佳选择。
在这里插入图片描述

使用Python和OpenCV进行实时物体识别,可以按照以下步骤进行: 1. 安装Python和OpenCV:首先,确保已经成功安装了Python和OpenCV库。可以使用pip工具通过终端或命令提示符运行以下命令来安装OpenCV:pip install opencv-python 2. 引入所需库:在Python脚本的开头,导入必要的库。这包括cv2和numpy。代码示例:import cv2 import numpy as np 3. 读取视频输入:使用cv2.VideoCapture函数来读取视频输入。代码示例:cap = cv2.VideoCapture(0) # 0表示摄像头 4. 加载物体图像:使用cv2.imread函数加载要识别的物体的图像。代码示例:object_image = cv2.imread("object.jpg") 5. 定义特征提取器:使用OpenCV的ORB(Oriented FAST and Rotated BRIEF)特征提取器来检测物体的关键特征点。代码示例:orb = cv2.ORB_create() 6. 提取关键特征:使用ORB特征提取器来计算物体图像的关键特征和描述符。代码示例:kp_object, des_object = orb.detectAndCompute(object_image, None) 7. 启动循环:使用一个无限循环,来进行连续的实时物体识别。代码示例:while True: 8. 读取实时视频帧:在循环中,使用cap.read()函数来读取每一帧的视频。代码示例:ret, frame = cap.read() 9. 提取当前帧的关键特征和描述符:使用ORB特征提取器来计算当前帧的关键特征和描述符。代码示例:kp_frame, des_frame = orb.detectAndCompute(frame, None) 10. 特征匹配和筛选:使用OpenCV的BFMatcher来进行关键特征的匹配,并筛选出最佳匹配。代码示例:bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True) matches = bf.match(des_object, des_frame) matches = sorted(matches, key=lambda x: x.distance) 11. 绘制匹配结果:使用cv2.drawMatches函数,将匹配的关键特征点在图像上进行可视化。代码示例:matched_result = cv2.drawMatches(object_image, kp_object, frame, kp_frame, matches[:10], None, flags=2) 12. 显示结果:使用cv2.imshow函数,将识别结果显示在窗口中。代码示例:cv2.imshow("Result", matched_result) 13. 退出循环:当按下键盘上的任意键时,通过cv2.waitKey函数检测并退出循环。代码示例:if cv2.waitKey(1) & 0xFF == ord('q'): break 14. 释放资源:在结束程序之前,使用cap.release()函数来释放视频输入资源。代码示例:cap.release() 15. 关闭窗口:使用cv2.destroyAllWindows函数来关闭所有的显示窗口。代码示例:cv2.destroyAllWindows() 通过按照上述步骤,就可以实现使用Python和OpenCV进行实时物体识别了。可以根据具体需求,对整个流程进行调整和优化。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值