[Stereo_cnn][cvpr16]Efficient Deep Learning for Stereo Matching(未完成)

[Paper note](Efficient Deep Learning for Stereo Matching)

这篇文章介绍一种更加快速但是只损失少量精确度的双目视差计算方法。其使用的主要框架与MC-CNN类似,尤其是Fast 框架,直接对两个由Siamese network得到feature vectors进行inner product计算。然后对结果的预测采用多类分类的模型,类别即不同大小的disparity(MC-CNN中采用二元分类),这样可以输出结果的置信度,用来帮助判断结果是否可信。
arct
https://imgbb.com/‘>best free photo hosting site

siamese 网络是由两个相同分支网络组成的结构,能够对两组输入数据进行相同的处理。我们采用传统的 卷积 BN RELU pooling 卷积 … 卷积 BN Softmax 形式构建网络。卷积核为(5x5或3x3 的大小) , 一般我们每一层用32或者64个卷积核。上图是一个用了3x3卷积核的4层的网络,因此整个网络对输入数据具有一个9x9的感受野(如果用3x3的kernel,stride=1,每一次卷积都会增大感受野(如何用kernel_size和s表示),感受野长度此时+1,所以在经过四次卷积之后,网络感受野增加至9x9)

训练

我们将视差计算问题当做一个多分类问题来处理,其中类别为所有可能的视差值。
训练数据: 训练时,我们从左图选取一个patch,令 (xi,yi) ( x i , y i ) 为patch的中心像素, dxi,yi d x i , y i 为对应的disparity的GT。从而我们从以左图patch为输入的siames网络得到64维的特征向量,从另一分支得到 |i|64 | Y i | ∗ 64

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值