三维重建的方法---大类别分类

立体视觉法(Stereoscopic)

传统的立体成像系统使用两个放在一起的摄影机,平行注视待重建之物体。此方法在概念上,类似人类借由双眼感知的图像相叠推算深度[1](当然实际上人脑对深度信息的感知历程复杂许多),若已知两个摄影机的彼此间距与焦距长度,而截取的左右两张图片又能成功叠合,则深度信息可迅速推得。此法须仰赖有效的图片像素匹配分析(correspondence analysis),一般使用区块比对(block matching)对极几何(epipolar geometry)算法达成。

使用两个摄影机的立体视觉法又称做双眼视觉法(binocular),另有三眼视觉(trinocular)与其他使用更多摄影机的延伸方法。

色度成形法(Shape from Shading)

早期由 B.K.P. Horn 等学者提出,使用图像像素的亮度值代入预先设计之色度模型中求解,方程式之解即深度信息。由于方程组中的未知数多过限制条件,因此须借由更多假设条件缩小解集之范围。例如加入表面可微分性质(differentiability)、曲率限制(curvature constraint)、光滑程度(smoothness)以及更多限制来求得精确的解。此法之后由 Woodham 派生出立体光学法。

立体光学法(Photometric Stereo)

为了弥补光度成形法中单张照片提供之信息不足,立体光学法采用一个相机拍摄多张照片,这些照片的拍摄角度是相同的,其中的差别是光线的照明条件。最简单的立体光学法使用三盏光源,从三个不同的方向照射待测物,每次仅打开一盏光源。拍摄完成后再综合三张照片并使用光学中的完美漫射(perfect diffusion)模型解出物体表面的梯度矢量(gradients),经过矢量场的积分后即可得到三维模型。此法并不适用于光滑而不近似于朗伯表面(Lambertian surface)的物体。

轮廓法

此类方法是使用一系列物体的轮廓线条构成三维形体。当物体的部分表面无法在轮廓联机展现时,重建后将丢失三维信息。常见的方式是将待测物放置于电动转盘上,每次旋转一小角度后拍摄其图像,再经由图像处理技巧去除背景并取出轮廓线条,搜集各角度之轮廓线后即可“刻划”成三维模型。

用户辅助

另外有些方法在重建过程中需要用户提供信息,借助人类视觉系统之独特性能,辅助完成重建程序。

这些方式都是基于照片摄影原理,针对同个物体拍摄图像以推算三维信息。另一种类似的方式是全景重建(panoramic reconstruction),乃是在定点上拍摄四周图像使之得以重建场景环境。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本文介绍了一种将PointNet和3D-LMNet结合起来用于单幅图像的三维重建和语义分割的方法。具体步骤如下: 1. 数据集准备:选择一个包含三维点云和相应的图像的数据集,其中每个点云都有与之对应的图像。同时,为每个点云标注语义信息。该数据集可以使用现有的公共数据集,如ShapeNet和ScanNet。 2. 点云预处理:对点云进行预处理,包括点云的采样和归一化。使用球形卷积神经网络对点云进行处理,以提取其特征。 3. 图像处理:使用卷积神经网络对图像进行处理,以提取其特征。将点云的特征和图像的特征结合起来,以获得更好的重建结果。 4. 三维重建:使用3D-LMNet对点云进行三维重建。该网络利用点云的特征和图像的特征,以及点云的拓扑结构,生成三维重建结果。 5. 语义分割:在三维重建结果上进行语义分割。使用PointNet对每个点进行分类,以确定其所属的语义类别。根据语义类别,将点云分成不同的区域,每个区域表示一个语义对象。 6. 结果可视化:将重建结果可视化,以便进行进一步的分析和评估。可以使用现有的可视化工具,如MeshLab和CloudCompare。 通过以上步骤,可以有效地将PointNet和3D-LMNet结合起来,实现单幅图像的三维重建和语义分割。该方法可以应用于许多领域,如机器人视觉、自动驾驶和虚拟现实。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值