不同坐标系下3D bbox通过中心点坐标和长宽高求8个角点问题

这种问题可分解为三步:

1.根据长(l)宽(w)高(h)计算出一个和正向运动方向重合的3D bbox的8个角点坐标向量:

x_corners = [-l/2,-l/2,l/2,l/2,-l/2,-l/2,l/2,l/2]
y_corners = [w/2,-w/2,-w/2,w/2,w/2,-w/2,-w/2,w/2]
#z_corners = [0,0,0,0,h,h,h,h]   #for kitti3d dataset
z_corners = [-h/2,-h/2,-h/2,-h/2,h/2,h/2,h/2,h/2]  #for our lidar-coordination-based dataset

2.根据3D bbox的朝向角(rotation angle)构建旋转矩阵与8个角点的坐标相称以将8个点旋转到实际位置,不同3D坐标系下,无论是相机坐标系还是雷达坐标系还是其他3d坐标系下,旋转问题处理起来其实是相同的,关键是看绕哪个轴旋转以及朝向角的正/负方向,也就是说无论坐标系定义其 x,y,z实际指向哪里,我们都只需看绕哪个轴旋转以及旋转角度的值(已含正/负方向)即可定义出对应的旋转矩阵(旋转矩阵本质是由正交向量组成,通过与矩阵相乘来对图像做旋转或缩放这样的线性变换以及SVD之类原理的解释可参考有关书籍资料,这里不多说):

# Rotation around x-axis
def rotx(r):
    c = np.cos(r)
    s = np.sin(r)
    return np.array([[1,  0,  0],
                     [0,  c, -s],
                     [0,  s,  c]])

# Rotation around y-axis
def roty(r):
    c = np.cos(r)
    s = np.sin(r)
    return np.array([[c,  0,  s],
                     [0,  1,  0],
                     [-s, 0,  c]])

# Rotation around z-axis
def  rotz(r):
    c = np.cos(r)
    s = np.sin(r)
    return np.array([[c, -s,  0],
                     [s,  c,  0],
                     [0,  0,  1]])

绕哪个轴旋转时,这个轴方向的坐标是无需旋转的只需保持原样即可,一般为了保持(x,y,z)三个维度在运算上的统一,给旋转矩阵的行列维度都增加对围绕旋转的轴这个方向的坐标的乘以0(不参与运算)或1(复制)处理。上面的r是3D bbox的实际朝向角,lidar坐标系下,r一般定义为与lidar坐标系下的x轴的夹角且以逆时针旋转为正向,相机坐标系下,r一般定义为与相机坐标系下的x轴的夹角且以顺时针方向旋转为正向,所以lidar坐标系下,旋转坐标一般调用rotz(r),而相机坐标系下一般调用roty(r)。为何旋转子矩阵是正负cos(r)和正负sin(r)的组合组成的,了解以特征向量组成的矩阵的作用的不难理解,或者画一下图也比较容易明白。

3.对3D bbox旋转后的各角点的坐标(此时3D bbox各个角点的坐标仍是相对3D bbox中心点的相对坐标)加上中心点的坐标得到相应坐标系下的绝对坐标。

完整代码如下(以lidar坐标系统下3D bbox的中心在其几何中心为例):

def center2corner_3d(x,y,z,w,l,h,r):
    x_corners = [-l/2,-l/2,l/2,l/2,-l/2,-l/2,l/2,l/2]
    y_corners = [w/2,-w/2,-w/2,w/2,w/2,-w/2,-w/2,w/2]
    #z_corners = [0,0,0,0,h,h,h,h]   #for kitti3d dataset
    z_corners = [-h/2,-h/2,-h/2,-h/2,h/2,h/2,h/2,h/2]  #for our lidar-coordination-based dataset
    R = rotz(r)
    corners_3d = np.dot(R, np.vstack([x_corners, y_corners, z_corners])) + np.vstack([x,y,z])
    return np.transpose(corners_3d,(0,2,1))

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: 以下是 OpenCV C 语言的轮廓提取坐标中心点并在原图中显示的代码: ```c #include <opencv2/opencv.hpp> #include <iostream> using namespace cv; using namespace std; int main() { Mat src = imread("test.jpg"); Mat gray, binary; cvtColor(src, gray, COLOR_BGR2GRAY); threshold(gray, binary, , 255, THRESH_BINARY | THRESH_OTSU); vector<vector<Point>> contours; vector<Vec4i> hierarchy; findContours(binary, contours, hierarchy, RETR_TREE, CHAIN_APPROX_SIMPLE, Point()); Mat dst = src.clone(); for (size_t i = ; i < contours.size(); i++) { drawContours(dst, contours, i, Scalar(, , 255), 2, 8, hierarchy); Moments mu = moments(contours[i], false); Point2f center(mu.m10 / mu.m00, mu.m01 / mu.m00); circle(dst, center, 2, Scalar(, 255, ), 2, 8, ); cout << "Contour " << i << " center: " << center << endl; } imshow("src", src); imshow("dst", dst); waitKey(); return ; } ``` 希望能对你有所帮助。 ### 回答2: 下面是一个使用OpenCV C++库来提取图像轮廓、计算轮廓中心点并在原图中显示的示例代码: ```cpp #include <opencv2/opencv.hpp> using namespace cv; int main() { // 读取图像 Mat image = imread("image.jpg", IMREAD_COLOR); // 灰度化图像 Mat gray; cvtColor(image, gray, COLOR_BGR2GRAY); // 二值化图像 Mat binary; threshold(gray, binary, 100, 255, THRESH_BINARY); // 查找轮廓 std::vector<std::vector<Point>> contours; findContours(binary, contours, RETR_EXTERNAL, CHAIN_APPROX_SIMPLE); // 绘制轮廓 drawContours(image, contours, -1, Scalar(0, 0, 255), 2); for (const auto& contour : contours) { // 计算轮廓的矩 Moments moments = moments(contour); double cx = moments.m10 / moments.m00; double cy = moments.m01 / moments.m00; // 绘制中心点 circle(image, Point(cx, cy), 4, Scalar(0, 255, 0), -1); } // 显示结果图像 imshow("Contours", image); waitKey(0); return 0; } ``` 代码中,首先读取图像,并将其转换为灰度图像。然后,通过二值化处理将图像转换为黑白图像。 之后,使用`findContours`函数查找图像中的轮廓。参数`RETR_EXTERNAL`表示只检测最外层的轮廓,`CHAIN_APPROX_SIMPLE`表示使用简化的轮廓表示方法。 接着,使用`drawContours`函数在原图像上绘制轮廓线。 对于每个轮廓,通过计算矩的方式计算出轮廓的中心点坐标。最后,使用`circle`函数绘制出每个轮廓的中心点。 最后,将处理后的图像显示出来,等待用户按键退出。 ### 回答3: 以下是使用OpenCV C库进行轮廓提取、坐标中心点计算,并在原图中显示的示例代码: ```c #include <opencv2/opencv.hpp> using namespace cv; int main() { // 读取图像 Mat image = imread("image.jpg", IMREAD_COLOR); // 灰度图 Mat gray; cvtColor(image, gray, COLOR_BGR2GRAY); // 二值化 Mat binary; threshold(gray, binary, 128, 255, THRESH_BINARY); // 轮廓检测 std::vector<std::vector<Point>> contours; std::vector<Vec4i> hierarchy; findContours(binary, contours, hierarchy, RETR_EXTERNAL, CHAIN_APPROX_SIMPLE); // 遍历轮廓 for (int i = 0; i < contours.size(); i++) { // 绘制轮廓 drawContours(image, contours, i, Scalar(0, 0, 255), 2); // 计算轮廓的边界框 Rect bbox = boundingRect(contours[i]); // 提取坐标 Point tl = bbox.tl(); Point br = bbox.br(); // 计算中心点 Point center = (tl + br) / 2; // 在原图中显示坐标中心点 putText(image, "Top Left: (" + std::to_string(tl.x) + ", " + std::to_string(tl.y) + ")", tl, FONT_HERSHEY_SIMPLEX, 0.5, Scalar(0, 255, 0), 1); putText(image, "Bottom Right: (" + std::to_string(br.x) + ", " + std::to_string(br.y) + ")", br, FONT_HERSHEY_SIMPLEX, 0.5, Scalar(0, 255, 0), 1); putText(image, "Center: (" + std::to_string(center.x) + ", " + std::to_string(center.y) + ")", center, FONT_HERSHEY_SIMPLEX, 0.5, Scalar(0, 255, 0), 1); } // 显示结果 imshow("Contours", image); waitKey(0); return 0; } ``` 此示例代码通过读取名为"image.jpg"的图像,并使用OpenCV进行轮廓提取、坐标中心点计算。然后,使用绘制轮廓和putText函数将坐标中心点信息显示在原图中。最后,通过imshow函数显示结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Arnold-FY-Chen

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值