CVPR 2020 Oral 出炉!5篇 Oral 论文抢先看

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

转载自:极市平台

在2月24日,CVPR 2020 公布接收论文结果公布,从 6656 篇有效投稿中录取了 1470 篇论文,录取率约为 22%。昨天,CVPR Oral结果公布了。有大佬已经分享了自己的工作,本文整理了5篇已中Oral的论文,分享给大家阅读。

1.PolarMask: 一阶段实例分割新思路[1,2]

论文地址:https://arxiv.org/abs/1909.13226

代码:https://github.com/xieenze/PolarMask

来自作者本人的详细解读:PolarMask: 一阶段实例分割新思路

PolarMask基于FCOS,把实例分割统一到了FCN的框架下。FCOS本质上是一种FCN的dense prediction的检测框架,可以在性能上不输anchor based的目标检测方法,让行业看到了anchor free方法的潜力。本工作最大的贡献在于:把更复杂的实例分割问题,转化成在网络设计和计算量复杂度上和物体检测一样复杂的任务,把对实例分割的建模变得简单和高效。

两种实例分割的建模方式:

实验结果:

2.Scene Graph Generation开源框架[3,4]

论文链接:https://arxiv.org/abs/2002.11949
论文代码:https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch

来自作者本人的详细解读:CVPR2020 | 最新最完善的场景图生成 (SGG)开源框架,集成目前最全metrics,已开源

本文选择2019年热门框架facebookresearch/maskrcnn-benchmark作为基础,在其基础上搭建了Scene-Graph-Benchmark.pytorch。该代码不仅兼容了maskrcnn-benchmark所支持的所有detector模型,且得益于facebookresearch优秀的代码功底,更大大增加了SGG部分的可读性和可操作性。

本文提出了一种基于因果推理的新颖SGG框架。首先为SGG建立因果图:

I: Image;X: Object Features; Z: Object Labels;Y:Predicate Logits

然后分析模型中的偏见来源。使用该图进行传统的有偏训练。作者认为,SGG中的偏见主要来源于下图右下角的那种场景,即不看具体的两个物体的状态,通过两个物体的label和一个union box的环境信息,盲猜这两个物体的relationship:

特别的是,作者使用Total Direct Effect取代单纯的网络log-likelihood,使得模型预测更有意义的relationship:

Recall:

3. Learning to Shade Hand-drawn Sketches[5]

论文地址:https://arxiv.org/abs/2002.11812

代码:https://github.com/qyzdao/ShadeSketch

本文提供了一种全自动方法,可以从成对的线描草图和照明方向生成详细而准确的艺术阴影。还提供了一个新的数据集,其中包含了用照明方向标记的成对的线描和阴影的一千个示例。值得一提的是,生成的阴影可以快速传达草绘场景的基础3D结构。因此,本文的方法产生的阴影是可以直接使用的。本文生成的阴影尊重手绘线和基础3D空间,并包含复杂且准确的细节,例如自阴影效果。此外,生成的阴影还包含艺术效果,例如边缘照明或背光产生的光晕,这也是传统3D渲染方法可以实现的。

生成的阴影手绘草图


上图:阴影系统获取线条图和照明方向标签,然后输出阴影。下图:包括三联手绘草图,阴影和照明方向在内的训练集。立方体显示记下26个照明方向的方式

4. SAM: The Sensitivity of Attribution Methods to Hyperparameters[6]

论文地址:http://s.anhnguyen.me/sam_cvpr2020.pdf

代码:https://github.com/anguyen8/sam

归因方法可以提供对分类器决策原因的有力见解。作者认为,一种解释方法的关键要求是其对输入超参数的鲁棒性,输入超参数通常是随机设置或根据经验进行调整的。对任意超参数选择的高度敏感性不仅会阻碍可重复性,而且还会影响解释的正确性。

本文中对现有归因方法的敏感性进行了透彻的实证研究,发现了一个趋势:许多方法对它们共同的超参数的变化高度敏感,例如即使更改随机种子也会产生不同的解释!有趣的是,这种敏感性没有反映在文献中通常报道的数据集的average explanation accuracy scores 中。

5.Conditional Channel Gated Networks for Task-Aware Continual Learning

参考文献

[1]  https://zhuanlan.zhihu.com/p/84890413

[2] https://arxiv.org/abs/1909.13226

[3] https://zhuanlan.zhihu.com/p/109657521

[4] https://arxiv.org/abs/2002.11949

[5] https://arxiv.org/abs/2002.11812

[6] http://s.anhnguyen.me/sam_cvpr2020.pdf

上述内容,如有侵犯版权,请联系作者,会自行删文。

推荐阅读:

吐血整理|3D视觉系统化学习路线

那些精贵的3D视觉系统学习资源总结(附书籍、网址与视频教程)

超全的3D视觉数据集汇总

大盘点|6D姿态估计算法汇总(上)

大盘点|6D姿态估计算法汇总(下)

机器人抓取汇总|涉及目标检测、分割、姿态识别、抓取点检测、路径规划

汇总|3D点云目标检测算法

汇总|3D人脸重建算法

那些年,我们一起刷过的计算机视觉比赛

总结|深度学习实现缺陷检测

深度学习在3-D环境重建中的应用

汇总|医学图像分析领域论文

大盘点|OCR算法汇总

重磅!3DCVer-知识星球和学术交流群已成立

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导,660+的星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

欢迎加入我们公众号读者群一起和同行交流,目前有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

▲长按加群或投稿

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值