CV Code|计算机视觉开源周报20200503期

五月第三周,盘点本周新开源或即将开源的CV代码,涵盖方向广泛,不仅涉及到技术创新,还涉及多种CV应用,尤其值得一提的是谷歌和MIT都在研究的对比表征学习和香港中文大学开源的InterFaceGan,希望对大家有帮助。

感谢这背后的开发者!

   目标检测

#CVPR 2020# #3D目标检测# #自动驾驶#

[1].Train in Germany, Test in The USA: Making 3D Object Detectors Generalize

德国训练,美国测试:3D目标检测的泛化问题研究

3D目标检测被广泛用于自动驾驶,但在德国收集的数据训练的检测器可以在美国的道路上表现的好吗?实验证明,这种情况会精度下降严重,作者进一步发现主要是不同场景中汽车的大小差异过大导致的,通过简单的尺度归一化,使得跨国家的3D目标检测泛化能力更好。

作者 | Yan Wang, Xiangyu Chen, Yurong You, Li Erran, Bharath Hariharan, Mark Campbell, Kilian Q. Weinberger, Wei-Lun Chao

单位 | 康奈尔大学;硅谷数据标注公司;哥伦比亚大学;俄亥俄州立大学

论文 | https://arxiv.org/abs/2005.08139

代码 | https://github.com/cxy1997/3D_adapt_auto_driving(尚未)

[2].WW-Nets: Dual Neural Networks for Object Detection

WW-Nets:用于目标检测的双神经网络

该文提出了一个物体检测框架,涉及到 "What Network "和 "Where Network "的整合。What Network 的目的是对输入图像的相关部分进行选择性关注,而Where Network则利用这些信息来定位和分类感兴趣的对象。在 PASCAL VOC 2007 和 2012 及 COCO 数据集上的实验显示,新提出的算法大幅超越了现有号称SOTA的方法,在COCO数据集上的AP 为51.6。

作者 | Mohammad K.Ebrahimpour,J.Ben Falandays,Samuel Spevack,杨明H,David C.Noelle

单位 | 加州大学

论文 | https://arxiv.org/abs/2005.07787

代码 | https://github.com/mkebrahimpour

#显著目标检测#

[3].U^2 -Net: Going Deeper with Nested U-Structure for Salient Object Detection

作者提出使用两层嵌套的U型结构的目标检测网络

优点:

(1)能够从不同的尺度捕获更多的上下文信息,

(2)可以增加深度的信息。

借助该方案提出两个模型:U^2-Net(GTX 1080Ti GPU上为176.3 MB,30 FPS)和U^2-Net†(4.7 MB,40 FPS),以便于在不同环境中使用。这两个模型在6个显著目标检测数据集上都显示具有比较优势。

作者 | Xuebin Qin, Zichen Zhang, Chenyang Huang, Masood Dehghan, Osmar R. Zaiane, Martin Jagersand

单位 | 阿尔伯塔大学

论文 | https://arxiv.org/abs/2005.09007

代码 | https://github.com/NathanUA/U-2-Net

#传感器融合# 

[4].A Deep Learning-based Radar and Camera Sensor Fusion Architecture for Object Detection

将雷达数据融合进摄像头数据的目标检测网络中,能够检测到目标被遮挡、图像质量较差等情况下的目标。实验证明该方法打败了仅使用RGB数据的算法。

作者 | Felix Nobis, Maximilian Geisslinger, Markus Weber, Johannes Betz, Markus Lienkamp

单位 | 慕尼黑工业大学

论文 | https://arxiv.org/abs/2005.07431

代码 | https://github.com/TUMFTM/CameraRadar

FusionNet

#CVPR 2020 Oral# #密集目标检测# #动态细化网络#

[5].Dynamic Refinement Network for Oriented and Densely Packed Object Detection

该文提出一种动态细化网络,用于对有方向的和密集的目标进行检测,比如遥感图像中的船只。该网络由两个新颖的组件组成,即特征选择模块(FSM)和动态细化头(DRH),FSM使神经元能够根据目标对象的形状和方向来调整感受野,而DRH使我们的模型能够以对象感知的方式动态地细化预测。在多个数据集上均表现出一致的精度提升。

作者 | Xingjia Pan, Yuqiang Ren, Kekai Sheng, Weiming Dong, Haolei Yuan, Xiaowei Guo, Chongyang Ma, Changsheng Xu

单位 | 中科院自动化研究所;优图实验室;CASIA-LVision联合实验室;快手AI实验室

论文 | https://arxiv.org/abs/2005.09973

代码 | https://github.com/Anymake/DRN_CVPR2020

   神经架构搜索NAS

[6].Optimizing Neural Architecture Search using Limited GPU Time in a Dynamic Search Space: A Gene Expression Programming Approach

使用基因表达的编程方法在有限的GPU上动态搜索空间进行神经架构搜索,只需24个GPU小时,即可高效发现有价值的卷积模型。在CIFAR-10 数据集上实现2.82% 的错误率(目前最好是2.67%),CIFAR-100数据集上得到18.83%的错误率(目前最好是18.16%),在ImageNet数据集上得到移动模型top-1 和 top-5 错误率分别为29.51% 和 10.37%。

作者 | Jeovane Honorio Alves, Lucas Ferrari de Oliveira

单位 | 巴西巴拉那联邦大学

论文 | https://arxiv.org/abs/2005.07669

代码 | https://github.com/jeohalves/nasgep

#CVPR 2020 (oral)#

[7].AOWS: Adaptive and optimal network width search with latency constraints 

在网络延迟限制下的自适应最佳网络宽度搜索,对ImageNet分类的实验表明,该文方法可以在不同的目标平台上找到拟合资源约束的网络,同时比最先进的高效网络提高了精度。

作者 | Maxim Berman, Leonid Pishchulin, Ning Xu, Matthew B. Blaschko, Gerard Medioni

单位 | Amazon Go;鲁汶大学

论文 | https://arxiv.org/abs/2005.10481

代码 | https://github.com/bermanmaxim/AOWS

[8].Rethinking Performance Estimation in Neural Architecture Search 

对神经架构搜索中性能估计的反思 

通过将BPE与各种搜索算法(包括强化学习、进化算法、随机搜索、可分化架构搜索)相结合,实现了1,000倍的NAS速度,而且与SOTA相比,性能几乎没有下降。

作者 | Xiawu Zheng, Rongrong Ji, Qiang Wang, Qixiang Ye, Zhenguo Li, Yonghong Tian, Qi Tian

单位 | 厦门大学;北大;鹏城实验室;华为诺亚方舟实验室;中国科学院大学

论文 | https://arxiv.org/abs/2005.09917

代码 | https://github.com/zhengxiawu/rethinking_

performance_estimation_in_NAS

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值