在上篇文章中,我们实现了一个使用双 Azure Kinect 的实时重建应用。
首先基于 ArUco 第三方库做关于两个 Azure Kinect 的相对姿态的标定,然后把其中一个 Azure Kinect 输出的点云转换到另一个 Azure Kinect 坐标系中,最后我们仅仅把两者的点云叠加。
这是当时的效果。
最近,我在Azure Kinect 的官方开源 SDK 所在的 Github 源码中发现了一个issue,是其中一个用户在 SDK 提供的 Green Screen 示例代码中发现两个 Azure Kinect 的点云无法完美拼接。
Azure Kinect 的官方开源 SDK
https://github.com/microsoft/Azure-Kinect-Sensor-SDK
issue: Overlay point cloud from two cameras
https://github.com/microsoft/Azure-Kinect-Sensor-SDK/issues/803
Green Screen 示例
https://github.com/microsoft/Azure-Kinect-Sensor-SDK/tree/develop/examples/green_screen
在 Green Screen 示例代码中,官方使用的是 OpenCV 提供的标定方法,使用黑白方格标定板做两个 Azure Kinect 的相对姿态的测定。
如下图所示 [2].
鉴于我上篇文章的结果