cnn生成图像显著图_今日 Paper | CVPR 2020 论文推荐:Social-STGCNN;无偏场景图生成;深度人脸识别;4D 关联图等...

本文介绍了四篇CVPR 2020的论文,包括Social-STGCNN用于行人轨迹预测,提出社会时空图卷积神经网络;无偏场景图生成,解决训练偏见问题;面向深度人脸识别的通用表征学习框架,提升识别性能;以及4D关联图用于实时多人运动捕捉,实现高效准确的运动重建。
摘要由CSDN通过智能技术生成

目录

CVPR 2020 | Social-STGCNN:一种用于行人轨迹预测的社会时空图卷积神经网络

CVPR 2020 | 基于有偏训练的无偏场景图生成

CVPR 2020 | 面向深度人脸识别的通用表征学习

CVPR 2020 | 使用多个摄像机的实时多人运动捕捉的4D关联图

CVPR 2020 | 一种基于U-Net的生成性对抗网络判别器

CVPR 2020 | Social-STGCNN:一种用于行人轨迹预测的社会时空图卷积神经网络

论文名称:Social-STGCNN: A Social Spatio-Temporal Graph Convolutional Neural Network for Human Trajectory Prediction

作者:Mohamed Abduallah /Qian Kun /Elhoseiny Mohamed /Claudel Christian

发表时间:2020/2/27

论文链接:

推荐原因

这篇论文被CVPR 2020接收,考虑的是行人轨迹预测的问题。

行人轨迹不仅受行人本身影响,还与周围物体的相互作用有关。这篇论文提出了社会时空图卷积神经网络(Social Spatio-Temporal Graph Convolutional Neural Network,Social-STGCNN),将行人与周围物体的交互行为建模为图模型,并通过一个核函数将行人之间的社交互动嵌入邻接矩阵中。实验结果表明,与先前方法相比,Social-STGCNN的最终位移误差较现有技术提高了20%,参数减少了8.5倍,而推理速度提高了48倍。

CVPR 2020 | 基于有偏训练的无偏场景图生成

论文名称:Unbiased Scene Graph Generation from Biased Training

作者:Tang Kaihua /Niu Yulei /Huang Jianqiang /Shi Jiaxin /Zhang Hanwang

发表时间:2020/2/27

论文链接:

推荐原因

这篇论文被CVPR 2020接收,要解决的是场景图生成的问题。

已有的场景图生成容易受有训练偏见的问题,例如将海滩上人类的步行、坐、躺等多样行为类型笼统分为海滩上的人类。这篇论文提出了一种新的基于因果推理的场景图生成的框架。首先建立因果图,然后使用该图进行传统的有偏训练,接着从训练图上得出反事实因果关系,以从不良偏置中推断出影响并将其消除。场景生成基准集Visual Genome上的实验表明这篇论文所提的方法与以前的最佳方法相比有显著改进。

CVPR 2020 | 面向深度人脸识别的通用表征学习

论文名称:Towards Universal Representation Learning for Deep Face Recognition

作者:Shi Yichun /Yu Xiang /Sohn Kihyuk /Chandraker Manmohan /Jain Anil K.

发表时间:2020/2/26

论文链接:

推荐原因

这篇论文被CVPR 2020接收,提出了一种面向深度人脸识别的通用表征学习框架,可以处理给定训练数据中未发现的较大变化,而无需利用目标域知识。新框架首先将训练数据与一些有意义的语义变化(例如低分辨率、遮挡和头部姿势)一起合成。训练过程中将特征嵌入拆分为多个子嵌入,并为每个子嵌入关联不同的置信度值,以简化训练过程。通过对变化的分类损失和对抗性损失进行正则化,可进一步对子嵌入进行解相关。实验表明,新的框架在LFW和MegaFace等常规人脸识别数据集上均取得最佳性能,而在TinyFace和IJB-S等极端基准集上则明显优于对比算法。

CVPR 2020 | 使用多个摄像机的实时多人运动捕捉的4D关联图

论文名称:4D Association Graph for Realtime Multi-person Motion Capture Using Multiple Video Cameras

作者:Zhang Yuxiang /An Liang /Yu Tao /Li Xiu /Li Kun /Liu Yebin

发表时间:2020/2/28

论文链接:

推荐原因

这篇论文被CVPR 2020接收,提出了一种新的使用多视点视频输入的实时多人运动捕捉算法,首次将视图解析、跨视图匹配和时间跟踪整合到一个优化框架中,即得到一个4D关联图,该图可以同时平等地处理每个维度(图像空间、视点和时间)。为有效求解4D关联图,这篇论文进一步提出基于启发式搜索的4D肢束解析思想,然后通过提出束Kruskal算法对肢束进行组合。这个新算法可以在5人场景中使用5个摄像机,以30fps的速度运行实时在线运动捕捉系统。新算法不仅对噪声检测具有鲁棒性,还获得了高质量的在线姿态重建结果。在不使用高级外观信息的情况下,新算法优于当前最优方法。

CVPR 2020 | 一种基于U-Net的生成性对抗网络判别器

论文名称:A U-Net Based Discriminator for Generative Adversarial Networks

作者:Schönfeld Edgar /Schiele Bernt /Khoreva Anna

发表时间:2020/2/28

论文链接:

推荐原因

这篇论文被CVPR 2020接收,提出了一种基于U-Net的判别器架构,在保持合成图像的全局一致性的同时,向生成器提供详细的每像素反馈。在判别器的每像素响应支持下,这篇论文进一步提出一种基于CutMix数据增强的逐像素一致性正则化技术,鼓励U-Net判别器更多关注真实图像与伪图像之间的语义和结构变化,不仅改善了U-Net判别器的训练,还提高了生成样本的质量。新判别器在标准分布和图像质量指标方面改进了现有技术,使生成器能够合成具有变化结构、外观和详细程度的图像,并保持全局和局部真实感。与BigGAN基线模型相比,所提方法在FFHQ、CelebA和COCO-Animals数据集上平均提高了2.7个FID点。

雷锋网雷锋网雷锋网

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值