双目立体视觉中基于深度学习的Cost Volume浅析(difference方式)

对于双目立体视觉方向的初学者来说,基于传统方法的Cost Volume构建比较容易懂,但是基于深度学习的Cost Volume构建却和传统方法构建大为不同,严重困扰“小白”的学习兴趣和进程。今天,我将用一个简单的例子,通俗易懂的介绍基于深度学习的Cost Volume浅析(以difference方式构建),仅供参考,如有差错,欢迎留言,以便勘误,共同进步。

双目立体视觉中基于深度学习的Cost Volume(difference方式)的参考代码如下:

'''
参考:https://zhuanlan.zhihu.com/p/293304108
'''
import torch
max_disp = 2

# 1.提取特征图
left_feature = torch.ones(48).reshape(1,3,4,4)
right_feature = torch.zeros(48).reshape(1,3,4,4)
print("left_feature:", left_feature.shape)
print("right_feature:", right_feature.shape)
print("left_feature:\n", left_feature)
print("right_feature:\n", right_feature)
print("---------------------------------------------------------------")

# 2.特征融合
class CostVolume():
    def __init__(self):
        pass

    '''
    feature_similarity:聚合方式
    left_feature:左特征图
    right_feature:右特征图
    '''
    def forward(self, feature_similarity, left_feature, right_feature):
        b, c, h, w = left_feature.size()

        self.max_disp = max_disp
        self.feature_similarity = feature_similarity

        cost_volume = left_feature.new_zeros(b, c, self.max_disp, h, w)
        print("original_cost_volume shape:", cost_volume.shape)
        print("original_cost_volume value:", cost_volume)

        for i in range(self.max_disp):
            if i > 0:
                print("********************************************************")
                print("left_feature[:, :, :, i:](i > 0 == i = 1):\n",    left_feature[:, :, :, i:])
                print("right_feature[:, :, :, :-i](i > 0 == i = 1)):\n", right_feature[:, :, :, :-i])
                cost_volume[:, :, i, :, i:] = left_feature[:, :, :, i:] - right_feature[:, :, :, :-i]
                print("cost_volume[:, :, i, :, i:](i > 0 == i = 1):\n", cost_volume[:, :, i, :, i:])

                print("final cost_volume:\n", cost_volume)
            else:
                cost_volume[:, :, i, :, :] = left_feature - right_feature  # i=0,表示左右两个特征图视差为0,没有差值,直接相减即可
                print("cost_volume[:, :, i, :, :] (i=0):\n", cost_volume)

if __name__== "__main__" :
    cost_volume = CostVolume()
    cost_volume.forward("difference", left_feature, right_feature)

 (1)left_feature和right_feature的数据格式如下:

 (2)原始定义的cost volume数据格式如下:

 (3)当i=0时,cost volume数据格式如下:

 (4)当i>0时,cost volume数据格式如下:

  (5)最终的cost volume数据格式如下:

分析:对比最开始的cost volume、i=0的cost volume和最终的cost volume的区别:

在基于深度学习的双目立体视觉中,Cost Volume是一个5维数组([B,C,D,H,W]),其中B代表Batch size,C代表Channel,D代表深度Depth ,H代表特征图的高度Hight,W代表特征图的宽度Wight。暂时抛开Batch size B,那么Cost Volume就是一个4维数组([C,D,H,W]),可以表述为:在每个通道C中,每个视差D下,每个像素点的匹配代价值。
在以difference的方式进行双目匹配中。输入左右视图的特征图维度为B C H W。首先,对D(max disparity)维度进行遍历,cost volume(:, :, i, :, i:)可以理解为视差为i时,左右视图的相似度。

对于双目图像对来说,左右视图之间的存在视差,左右视图只有一部分是重合的,重合部分在左图的右边,右图的左边。因此在计算的时候,取左特征图的第i列到最后一列与右特征图的第一列到倒数第i列相减。cost volume(:,:,i,:,:)每个像素表示视差为i时,左图(x,y)像素与右图(x, y+i)像素的差异程度。输出的cost volume维度为B C D H W。

i=0,表示左右特征图中匹配点对齐,即直接left_feature和right_feature相减;

i>0,   表示左右特征图中匹配点没有对齐,这个时候就需要左右特征图错开,以视差为标准,进行左右特征图的错位相减。

cost_volume[:, :, i, :, i:] = left_feature[:, :, :, i:] - right_feature[:, :, :, :-i]

从代码中还可以看到,在计算cost volume之前,判断i为否为正数。i为正表示,左图在右图左边,右图在左图右边,只有这时才符合正常的双目视图的几何模型。

模型图如下所示:
​​​​​​​

参考文献:

[1] 计算机视觉中cost-volume的概念具体指什么? - 知乎

[2]双目深度算法——基于Cost Volume的方法(GC-Net / PSM-Net / GA-Net)_Leo-Peng的博客-CSDN博客_gc-net

[3]在计算机视觉(CV)领域,针对图像的cost volume模块是什么? - 知乎

[4]https://zhidao.baidu.com/question/1741015413026869187.html

[5]Cost volume的理解及其变体 - 知乎

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 深度学习的双目立体匹配算法是一种通过构建双目图像视差来实现物体深度估计的方法。它可以用来计算两帧图像之间的视差,从而计算物体的深度。算法的代码可以使用C/C++或Python编程语言实现,具体的实现步骤可以参考一些开源的项目,其的代码都已经有详细的注释,可以方便的使用者理解算法的具体步骤。 ### 回答2: 双目立体匹配算法是指利用双目相机采集的两幅图像之间的视差信息,通过计算两幅图像的像素点的对应关系来重构三维空间物体的位置。 基于深度学习的双目立体匹配算法主要包含以下几个步骤:预处理、特征提取、代价计算、聚合、视差优化和后处理。 1. 预处理:对双目图像进行预处理,如图像去噪、图像校正、裁剪等。 2. 特征提取:利用深度学习模型,如卷积神经网络(CNN),提取图像的特征。将左右图像输入到CNN模型,通过模型的前向传播过程,得到两幅图像的特征图。 3. 代价计算:对于每个像素点,计算其在视差方向上的代价。通常使用代价函数,如绝对差异代价、归一化相关代价等。 4. 聚合:通过聚合算法,如图割(Graph Cut)、平滑滤波(Bilateral Filter)等,将每个像素点的代价进行聚合,得到整个视差图。 5. 视差优化:对聚合得到的视差图进行优化,消除可能存在的错误和不一致性。常用的视差优化算法有全局优化算法、半全局优化算法。 6. 后处理:对优化后的视差图进行后处理,如填充空洞、边缘精化等,得到最终的三维重构结果。 下面是一个简单的基于深度学习的双目立体匹配算法代码示例,包含了部分详细注释: ```python # 导入所需库 import numpy as np import cv2 # 预处理 def preprocess(left_img, right_img): # 进行图像校正等预处理操作 # ... return left_img, right_img # 特征提取 def extract_features(left_img, right_img): # 使用预训练的CNN模型提取特征 # ... return left_features, right_features # 代价计算 def compute_cost(left_features, right_features): # 计算两幅图像对应特征图之间的代价 # 使用绝对差异代价或归一化相关代价等方法 # ... return cost # 聚合 def aggregate_cost(cost): # 使用图割或平滑滤波等方法聚合代价 # ... return aggregated_cost # 视差优化 def optimize_disparity(aggregated_cost): # 使用全局优化或半全局优化等方法优化视差 # ... return disparity # 后处理 def postprocessing(disparity): # 对视差图进行空洞填充、边缘精化等操作 # ... return disparity # 主函数 def main(left_img, right_img): # 预处理 left_img, right_img = preprocess(left_img, right_img) # 特征提取 left_features, right_features = extract_features(left_img, right_img) # 代价计算 cost = compute_cost(left_features, right_features) # 聚合 aggregated_cost = aggregate_cost(cost) # 视差优化 disparity = optimize_disparity(aggregated_cost) # 后处理 disparity = postprocessing(disparity) # 返回最终的视差图 return disparity # 测试代码 left_img = cv2.imread('left.png') right_img = cv2.imread('right.png') disparity_map = main(left_img, right_img) ``` 以上代码仅作为示例,实际的双目立体匹配算法代码会更加复杂,涉及到的方法和技术还有很多。双目立体匹配算法的具体实现可以根据需求进行相应的调整和优化。 ### 回答3: 双目立体匹配算法是利用双目相机采集的图像,通过计算两个图像之间的视差(即像素之间的差异)来确定物体的深度信息。基于深度学习的双目立体匹配算法则是在传统的立体匹配算法基础上,利用深度学习模型对图像进行特征提取和匹配。 以下是一个基于深度学习的双目立体匹配算法的代码示例,包含了详细的注释: ``` import cv2 import numpy as np import torch # 加载预训练的深度学习模型 model = torch.load('stereo_matching_model.pt') # 加载左右目图像 left_image = cv2.imread('left.png') right_image = cv2.imread('right.png') # 将图像转换为张量,并进行归一化处理 left_tensor = torch.from_numpy((left_image / 255.0).astype(np.float32)).permute(2, 0, 1).unsqueeze(0) right_tensor = torch.from_numpy((right_image / 255.0).astype(np.float32)).permute(2, 0, 1).unsqueeze(0) # 使用深度学习模型进行特征提取和匹配 with torch.no_grad(): left_features = model(left_tensor) right_features = model(right_tensor) # 计算两个特征图之间的差异,得到视差图 disparity = torch.abs(left_features - right_features) # 将视差图转换为深度图 depth_map = 1 / disparity # 将深度图转换为灰度图,并进行显示 depth_map_gray = cv2.cvtColor(depth_map.squeeze().numpy(), cv2.COLOR_BGR2GRAY) cv2.imshow('Depth Map', depth_map_gray) cv2.waitKey(0) ``` 在上述代码,首先加载了预训练的深度学习模型,并加载了左右目的图像。然后将图像转换为张量,并进行归一化处理。接下来,通过深度学习模型对左右目的图像进行特征提取和匹配,并计算两个特征图之间的差异,得到视差图。最后,将视差图转换为深度图,并将深度图转换为灰度图进行显示。 以上是基于深度学习的双目立体匹配算法的代码详细注释。这个算法可以通过深度学习模型来提取图像的特征,进而实现精确的立体匹配。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值