2019-9-27 opencv摄像机标定与三维重构3-Epipolar Geometry 对极几何(极点/极线,画2个图像间的极线)

官网https://docs.opencv.org/3.4.1/da/de9/tutorial_py_epipolar_geometry.html

基本概念

当我们使用针孔相机获取图像时候,会丢失一些重要的信息,例如:图像的深度,或者从图像上的点到摄像机的距离,因为这是从3D到2D的转换。所以这里就有一个重要的问题,使用这种相机,我们是否可以获得信息的深度。答案就是使用多个相机。其实我们的眼界也是用同样的方式工作,使用2个摄像机(2个眼睛)的方式被称为立体视觉(stereo vision)。现在让我们看看opencv在这领域能提供了些什么吧。

Gary Bradsky的《Learning OpenCV》有很多这方面的内容

在进入图像深度之前,我们先理解一些多视角几何的基本概念。在本节我们要处理对极几何(Epipolar Geometry)。看下图,展示了两台摄像机对同一个场景进行拍摄的基本设置。
在这里插入图片描述
如果我们只使用左边的相机,我们无法找到x点对应的的3D点,因为OX线上的每一个点在左边的图像平面上投影都是同一个点。但是如果同时考虑右边的图像,那么OX线上的每一个x点在右边图像平面上都有不同的投影(x‘点)。所以使用这2幅图像,我们可以通过三角定位每个3D点(或者说获得3D空间中每个点到摄像机的距离)。这就是对极几何整个思路。

OX线上每个点在右边图像平面上投影形成了一根直线l’,我们称之为x点的极线(epiline )。我们可以在右边图像中沿极线中找到x点,它一定是在这根直线的某个位置(也就是说,如果要找到空间中的一个点在另外一个平面上的对应点,你不需要搜索整个平面,只要沿极线搜索就可以了。这样可以有更佳的性能和正确性。)这被称为对极约束(Epipolar Constraint)。同样的,所有的点都有它在其他平面的对应极线。平面XOO′称为对极平面( Epipolar Plane)

O和O′是2台摄像机的中心。观察上面的图,你可以看到摄像机O′在左边图像的投影是点e,它被称为极点(epipole)。极点是穿过相机中心直线和图像平面的交叉点。同理,点e′是左边相机的极点。在某些情况下,你无法在平面中定位极点,因为极点可能在图像的外部(也就是说,1台相机不能看到另外1台相机)。

所有的极线都要经过极点。所以要找到极点,我们可以先找到多条极线,极线的交叉点就是极点。

本节中,

  • 1
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
多视角几何是一种利用多个视角的图像进行三维重构的技术。OpenCV提供了相应的函数来实现多视角几何三维重构,主要包括以下几个步骤: 1. 相机标定:通过相机标定,获取相机的内参矩阵和畸变参数,这是进行三维重构的前提条件。 2. 特征点匹配:在每张图像中提取特征点,并进行匹配。OpenCV提供了ORB、SIFT、SURF等算法来进行特征点提取和匹配。 3. 三维重建:通过相机的内参矩阵和匹配点对,计算出对应的三维点坐标。OpenCV提供了三维重建的函数,如triangulatePoints。 4. 点云处理:将三维点云进行处理,去除离群点、进行滤波等操作。 5. 可视化:将处理后的点云进行可视化,生成三维模型。 以下是一个基于OpenCV的多视角几何三维重构的示例代码: ```python import cv2 import numpy as np # 相机标定 K = np.array([[fx, 0, cx], [0, fy, cy], [0, 0, 1]]) # 内参矩阵 dist = np.array([k1, k2, p1, p2, k3]) # 畸变参数 img_size = (img_width, img_height) # 图像大小 retval, K, dist, rvecs, tvecs = cv2.calibrateCamera(objpoints, imgpoints, img_size, K, dist) # 特征点匹配 orb = cv2.ORB_create() bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True) kp1, des1 = orb.detectAndCompute(img1, None) kp2, des2 = orb.detectAndCompute(img2, None) matches = bf.match(des1, des2) matches = sorted(matches, key=lambda x: x.distance) # 三维重建 pts1 = np.float32([kp1[m.queryIdx].pt for m in matches]).reshape(-1, 1, 2) pts2 = np.float32([kp2[m.trainIdx].pt for m in matches]).reshape(-1, 1, 2) pts1_norm = cv2.undistortPoints(pts1, K, dist) pts2_norm = cv2.undistortPoints(pts2, K, dist) F, mask = cv2.findFundamentalMat(pts1_norm, pts2_norm, cv2.FM_RANSAC) E = K.T.dot(F).dot(K) retval, R, t, mask = cv2.recoverPose(E, pts1_norm, pts2_norm, K) P1 = np.hstack([np.eye(3), np.zeros((3, 1))]) P2 = np.hstack([R, t]) pts4d = cv2.triangulatePoints(P1, P2, pts1_norm, pts2_norm) pts3d = cv2.convertPointsFromHomogeneous(pts4d.T) # 点云处理 mask = (pts3d[:, :, 2] > 0)[:, 0] pts3d = pts3d[mask] pts3d_filtered = cv2.fastBilateralFilter(pts3d, 10, 50, 50) # 可视化 from mpl_toolkits.mplot3d import Axes3D import matplotlib.pyplot as plt fig = plt.figure() ax = fig.add_subplot(111, projection='3d') ax.scatter(pts3d_filtered[:, :, 0], pts3d_filtered[:, :, 1], pts3d_filtered[:, :, 2]) plt.show() ``` 需要注意的是,这只是一个示例代码,实际应用中需要根据具体需求进行修改和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值