常见立体匹配论文列表

英文中文题目摘要
A Non-Local Cost Aggregation Method for Stereo MatchingNCA-Net一种用于立体匹配NonLocal代价聚集方法NCA-Net)给定图像转换的图,根据最小生成树的原则,计算每个像素位置的(不同视差)的全局cost。选择最小cost所对应的视差为当前像素的视差。
ActiveStereoNet - End-to-End Self-Supervised Learning for Active Stereo SystemsActiveStereoNet——端到端自监督学习主动立体系统基于主动立体相机系统(不是普通的双目相机)的视差估计
Cascade Residual Learning - A Two-stage Convolutional Neural Network for Stereo MatchingCRL级联残差学习——用于立体匹配两级卷积神经网络CRL代码:https://github.com/Artifineuro/crl
两个阶段:初始估计refine
两个阶段的网络结构类似于
DispNetC(参考文献40),区别在于是全分辨率输出
refine阶段采用的是残差r的更新(网络结构见图1
EdgeStereo - A Context Integrated Residual Pyramid Network for Stereo MatchingEdgeStereo-V2EdgeStereo——用于立体匹配上下文集成残差金字塔网络EdgeStereo-V2网络结构如图2
1.
视差网:两个金字塔,一个获取多尺度context信息,另一个利用残差信息实现refine
2. HED边缘检测网:利用边缘信息对视差进行正则化
Hierarchical Discrete Distribution Decomposition for Match Density EstimationHD^3-Stereo用于匹配密度估计分层离散分布分解HD^3-Stereo目的是不仅估计视差,而且估计(每个点)视差的分布(不确定性)。
采用多尺度、refine等思想,集成了DLA、HAD等已有的技术。
结构图如图2
Learning Depth with Convolutional Spatial Propagation NetworkCSPN卷积空间传播网络学习深度提出卷积空间传播(CSPN),省去了传统SPN连续4个方向的处理,从而一次完成。并将其推广到3D,从而应用于各种立体视觉应用,包括立体匹配。这里是用于类似于CRF的后处理。PSMNet的改进
Learning for Disparity Estimation through Feature ConstancyiResNet基于特征一致性视差估计学习iResNet网络结构见图1,共分三个部分。算法强调特征一致性
代码:https://github.com/leonzfa/iResNet
Pyramid Stereo Matching NetworkPSM Net金字塔立体匹配网SPP(空间金字塔池化)+ 3D卷积。见图1
Stereo Matching by Training a Convolutional Neural Network to Compare Image PatchesMC-CNN训练卷积神经网络比较图像块立体匹配MC-CNN提出用以计算cost volumn的CNN网,而后续的处理仍然采用传统的方法
End-to-End Learning of Geometry and Context for Deep Stereo RegressionGC Net几何上下文的端到端学习实现深度立体回归GC-Net网络结构如图1,计算一元特征,然后Cost Volumn,最后3D卷积
StereoNet - Guided Hierarchical Refinement for Real-Time Edge-Aware Depth PredictionStereoNet——实时边缘感知深度预测指导的分层精化算法网络结构如图1,实时算法(60fp),特征抽取阶段下采样,3D卷积,估计视差阶段,采用refine的思想
CVPR2019
GA-Net: Guided Aggregation Net for End-To-End Stereo MatchingGA-Net:端到端立体匹配引导聚合网提出两种cost aggregation方法:semi-globallocal,分别对应无纹理区和细结构/边缘区
Guided Stereo Matching引导立体匹配给定稀疏(正确)的深度值(可以容易地转化为对应点的视差值),利用这部分信息作为引导,辅助实现立体视觉(公式1-4,通过图2b,c可以看出,其对性能的提升也是有明显的好处的)
Group-Wise Correlation Stereo Network群相关立体网络PSMNet基础上的改进,主要体现在以下几个方面:
1.
costVolumn采用concatenation(公式2)和correlation(公式1)相结合的方式,特别是correlation,采用通道分组的方式(公式3),以获取更多的信息,从而使aggregationNet简化成为可能。
2.
aggregation Net 进行了改进(图2),提升了速度
Multi-Level Context Ultra-Aggregation for Stereo Matching基于多级上下文超聚合立体匹配基于PSMNet的改进,主要改动在前端matching cost calculation部分,如图3添加了一个子分支,从而定义了所谓“interesting level组合”(图中彩色实线),而模块内部采用的是密集连接,文中称为高阶RCNN
另一部分改进在
输出部分,见图2引入了残差模块来精化
Hierarchical Deep Stereo Matching on High-Resolution Images高分辨率图像分层深度立体匹配主要是利用空间金字塔(SPP)抽取不同(4个)尺度的特征,并由此得到多尺度的costVolumn,低尺度特征不仅独立估计视差,同时辅助高尺度特征计算高尺度costVolumn(图2,3),即所谓“层级
文中同时还给出
数据增广方法和新的训练数据集
StereoDRNet: Dilated Residual StereoNetStereoDRNet:扩张的残差立体网流程框架见图2,文中在特征抽取、CostFiltering、回归、精化等几个子模块都有改进,主要有:
1. DR:
CostFiltering中使用扩张卷积残差
2. 特征抽取中使用Vortex池化
3. 精化阶段不仅考虑光度误差(公式4),同时考虑几何误差(公式5)
详细可见Contribution 中介绍
Real-Time Self-Adaptive Deep Stereo实时自适应深度立体MADNet在线自适应来解决domain shift问题(训练集为合成数据,而真实测试集为真实场景)。在实际使用中,每帧数据(对)不仅用来计算视差,同时用来在线更新网络权值,达到自适应的目的
LAF-Net: Locally Adaptive Fusion Networks for Stereo Confidence EstimationLAF-Net:用于立体置信估计局部(L)自适应(A)融合(F)网络置信图(Confidence map)用以衡量每个点的(估计后)视差的置信度(如图1),进而对不同置信度像素点的视差可以refine等后处理。
ICCV2019
DeepPruner: Learning Efficient Stereo Matching via Differentiable PatchMatchDeepPruner:通过可微Patch匹配实现有效的立体匹配学习1. 利用RNN的结构描述PatchMatch
2. 利用可微的PatchMatch,缩小每个像素视差的搜索范围(传统的方法是所有视差可能性,而文中每个像素考虑的是部分视差,即Confidence Range,大约是全部视差范围的1/10)
Semantic Stereo Matching With Pyramid Cost Volumes基于金字塔CostVolume语义立体匹配1. 采用语义分割提升立体匹配
2. 采用
不同尺度的CostVolume
OmniMVS: End-to-End Learning for Omnidirectional Stereo MatchingOmniMVS:全方位立体匹配端到端学习多视角的立体匹配
TAPA-MVS: Textureless-Aware PAtchMatch Multi-View StereoTAPA-MVS:无纹理感知PatchMatch多视图立体多视角的立体匹配
P-MVSNet: Learning Patch-Wise Matching Confidence Aggregation for Multi-View StereoP-MVSNet:学习多视点立体视觉的逐块匹配置信聚集多视角的立体匹配
AutoDispNet: Improving Disparity Estimation With AutoMLAutoDispNet:用AutoML改进视差估计网络结构搜索最优超参数搜索的方法

 

  • 13
    点赞
  • 40
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在Matlab中,立体匹配是一种用于处理立体图像的技术,它通过比较两幅图像中的像素来确定它们之间的对应关系。立体匹配的目的是找到在两幅图像中具有相同视差(即在图像中的位置差异)的像素对。 在立体匹配中,通常使用的方法是计算两个像素窗口之间的差异,例如通过计算窗口中像素之间的差的平方和。然后,对于每个像素,选择与之具有最小差异的像素作为对应像素。 立体匹配的过程可以分为以下几个步骤: 1. 加载两幅立体图像,并对其进行预处理,例如去除噪声、调整图像亮度和对比度等。 2. 选择一个像素窗口大小,并在两幅图像中滑动这个窗口,计算窗口中像素之间的差异。 3. 对于每个像素,选择与之具有最小差异的像素作为对应像素,并将其保存为视差图。 4. 可以使用不同的算法来进行立体匹配,例如基于区域的方法、基于特征的方法、基于能量优化的方法等。 5. 最后,可以根据视差图生成一个三维深度图,以显示立体图像中物体的深度信息。 需要注意的是,在进行立体匹配之前,需要满足一些假设条件,例如两个相机的焦距相同、相机水平对齐在相同的高度等。这些假设可以简化立体匹配的过程,但在真实的立体图像中可能并不适用。 总的来说,立体匹配是一种用于处理立体图像的技术,它通过比较两幅图像中的像素确定它们之间的对应关系。在Matlab中,可以使用不同的算法和方法来进行立体匹配,并生成视差图和深度图。<span class="em">1</span><span class="em">2</span><span class="em">3</span><span class="em">4</span>

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值