ECCV 2018所有录用论文清单

ECCV 2018所有录用论文清单

ECCV 2018所有录用论文清单http://openaccess.thecvf.com/ECCV2018.py

关于计算机视觉方向的最新论文可参考:daily-paper-computer-vision

ECCV 2018 776篇论文一键下载

关注CVer公众号,后台回复:ECCV2018,即可获得776篇论文合集

ECCV 2018论文节选

Semantic Segmentation

《Effective Use of Synthetic Data for Urban Scene Semantic Segmentation》

ECCV 2018

Abstract:训练深度网络以执行语义分割需要大量标记数据。为了减轻注释真实图像的手动工作,研究人员研究了合成数据的使用,这些数据可以自动标记。不幸的是,在合成数据上训练的网络在真实图像上表现得相对较差。虽然这可以通过域适应(domain adaptation)来解决,但是现有方法都需要在训练期间访问真实图像。在本文中,我们介绍了一种截然不同的处理合成图像的方法,这种方法不需要在训练时看到任何真实的图像。Our approach builds on the observation that foreground and background classes are not affected in the same manner by the domain shift, and thus should be treated differently。特别是,前者应该以基于检测的方式处理,以更好地解释这样的事实:虽然它们在合成图像中的纹理不是照片般逼真的,但它们的形状看起来很自然。我们的实验证明了我们的方法对Cityscapes和CamVid的有效性,仅对合成数据进行了训练。

arXiv:https://arxiv.org/abs/1807.06132

注:domain adaptation这个概念最近很火!

Stereo

《ActiveStereoNet: End-to-End Self-Supervised Learning for Active Stereo Systems》

ECCV 2018

Abstract:在本文中,我们介绍ActiveStereoNet,这是active立体声系统的第一个深度学习解决方案。由于缺乏ground truth,我们的方法是完全自监督的,但它产生精确的深度,子像素精度为像素的1/30;它没有遭受常见的过度平滑问题;它保留了边缘;它明确地处理遮挡。我们引入了一种新的重建损失(reconstruction loss),它对噪声和无纹理patches更加稳健,并且对于光照变化是不变的。使用具有自适应支持权重方案的基于窗口的成本聚合来优化所提出的损失。这种成本聚合是边缘保留并使损失函数平滑,这是使网络达到令人信服的结果的关键。最后,我们展示了预测无效区域(如遮挡)的任务如何在没有ground truth的情况下进行端到端的训练。该component对于减少模糊至关重要,特别是改善了深度不连续性的预测。对真实和合成数据进行广泛的定量和定性评估,证明了在许多具有挑战性的场景中的最新技术成果。

arXiv:https://arxiv.org/abs/1807.06009

CNN

《CBAM: Convolutional Block Attention Module》

ECCV 2018

Abstract:我们提出了卷积块注意力模块(CBAM,Convolutional Block Attention Module ),这是一种用于前馈卷积神经网络的简单而有效的注意力(attention)模块。给定中间特征图,我们的模块沿着两个单独的维度(通道和空间)顺序地(sequentially)推断注意力图,然后将注意力图乘以输入特征图以进行自适应特征细化。由于CBAM是一个轻量级的通用模块,它可以无缝地集成到任何CNN架构中,代价可以忽略不计,并且可以与基本CNN一起进行端到端的训练。 我们通过对ImageNet-1K,MS~COCO检测和VOC~2007检测数据集的大量实验来验证我们的CBAM。 我们的实验表明,各种模型在分类和检测性能方面均有一定的改进,证明了CBAM的广泛适用性。 代码和模型将随后公开提供。

arXiv:链接:https://arxiv.org/abs/1807.06521

注:很棒的论文,相信可以帮助一波同学写论文(划水)

Multi-View Reconstruction

《Specular-to-Diffuse Translation for Multi-View Reconstruction》

ECCV 2018

Abstract:大多数多视图3D重建算法,特别是当使用来自阴影的形状提示时,假设对象外观主要是漫射的(predominantly diffuse)。为了缓解这种限制,我们引入了S2Dnet,一种生成的对抗网络,用于将具有镜面反射的物体的多个视图转换为漫反射( diffuse),从而可以更有效地应用多视图重建方法。我们的网络将无监督的图像到图像转换扩展到多视图“镜面到漫反射”的转换。为了在多个视图中保留对象外观,我们引入了一个多视图一致性损失(MVC,Multi-View Coherence loss),用于评估视图转换后局部patches的相似性和faithfulness。我们的MVC损失确保在图像到图像转换下保留多视图图像之间的局部对应的相似性。因此,与几种单视图 baseline 技术相比,我们的网络产生了明显更好的结果。此外,我们使用基于物理的渲染精心设计并生成大型综合训练数据集。在测试过程中,我们的网络仅将原始光泽图像作为输入,无需额外信息,如分割掩模或光照估计。结果表明,使用我们的网络过滤的图像可以显著地改善多视图重建。我们还展示了在现实世界训练和测试数据上的出色表现。

arXiv:https://arxiv.org/abs/18

  • 3
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值