2022CVPR云分享 | 5位一作学者带你走进计算机视觉领域顶会

点击蓝字

b18669cd235ab1d46990cfdc4cf93f8e.jpeg

关注我们

AI TIME欢迎每一位AI爱好者的加入!

8月3日15:00,本期我们邀请到CVPR 2022的五位讲者给大家带来精彩的分享!

f5d859576d4fac5dea84134eb992f7aa.jpeg

哔哩哔哩直播通道

扫码关注AI TIME哔哩哔哩官方账号预约直播

45a097fcb06e9fc8b2a18fd74c5110c1.gif

8月3日 15:00-15:20

d7fedc9fb4988a1ef7a9e1d8429ce77c.gif

46c532f4c0edaaa9468ec36f8605d395.jpeg

讲者简介

祝浩:

前京东金融技术专家,澳大利亚国立大学Ph.D Candidate. 兴趣广泛,曾在ICLR, Neurips, CVPR, KDD, TheWebConf, ICDE, IJCAI, ACMMM,CIKM,NAACL等会议发表论文。

分享内容

基于无监督判别子空间学习的转导小样本学习

报告简介

我们提出了一种无监督判别子空间学习方法,它通过利用支撑集和查询集数据学习一个线性投影把数据到一个子空间上,提高了转导小样本学习性能。进一步的我们提出一种带约束的最优传导聚类方法来完成标签对查询集数据的转导预测。

8月3日 15:20-15:40

8e660026add94aeee1d83627177672ae.gif

7391cb973b178199f9d4cc2829b1f2ab.png

讲者简介

魏志鹏:

复旦大学博士生,导师为陈静静教授。致力于多媒体模型对抗攻防安全相关的研究。至今,在AAAI、CVPR、ICMR等重要国际会议上发表论文8篇,其中第一作者论文6篇。

分享内容

基于图像模型的高迁移视频对抗样本生成方法

报告简介

该论文首先针对视频数据在图像和视频模型中特征的余弦相似度进行了分析,并证实了图像和视频模型具有相似的特征空间;其次通过实验表明了对抗噪声可在图像和视频模型间进行迁移。由此,可通过最小化对抗视频帧与干净视频帧在图像模型中的余弦相似度,来生成可成功干扰视频模型预测的视频对抗样本。结果表明,该方法实现了较好的攻击效果,揭示了视频模型易受到来自图像模型介导的对抗攻击的威胁。

8月3日 15:40-16:00

e143ca1dcab97b59848e027aa307f719.gif

990b019d2cfd0bd99c725fa1d56e49bd.jpeg

讲者简介

修宇亮:

德国马克斯·普朗克智能系统研究所二年级博士生,导师 Michael J. Black,现研究方向为基于图像和视频的三维人体数字化;之前曾为美国南加州大学计算机系博士生,导师 Hao Li;2019年于上海交通大学计算机系取得硕士学位,导师卢策吾,研究方向为二维人体姿态估计与跟踪;本科毕业于山东大学数字媒体技术专业。 

分享内容

如何多快好省地重建三维数字人

报告简介

以假乱真的数字虚拟人,是构建 Metaverse 的基础组件。现有的数字人制作流程,需要昂贵的三维扫描设备以及大量的人工后处理,费时费力费钱,因此如何从互联网上现有的照片或视频中(省),规模化地(多)快速(快)生产高质量(好)数字虚拟人,成为一个学界和业界都在关心的问题。在这次分享中,我将介绍我的两个工作:ICON 和 MonoPort,这两个工作都围绕着「将图像中的纸片人还原成几何细节丰富的三维数字虚拟人」这个问题,ICON 主要致力于更高效的训练、更强的泛化性、更稳定的重建效果,而 MonoPort 则聚焦于实时性。

8月3日 16:00-16:20

8b666dc7c801410df9c35dae4f17c6d3.gif

5074a808766579c88f1eb2ac17179b85.jpeg

讲者简介

赵子祥:

西安交通大学数学与统计学院博士在读,师从张讲社教授,现为哈佛大学计算机科学系访问博士,导师为Hanspeter Pfister教授。研究方向为底层视觉,图像增强,多模态信息融合。

分享内容

用于多模态深度图超分辨率的离散余弦变换网络

报告简介

多模态深度超分辨率是多模态图像处理中的一个重要课题,它借助同一场景的高清RGB图像从在次优条件下收集的低分辨率深度图重建高分辨率深度图。为了解决在解释工作机制不明、提取跨模态特征困难和RGB纹理的过度迁移方面的挑战,我们提出了一种新颖的离散余弦变换网络 (DCTNet) ,从三个方面缓解上述问题。首先,离散余弦变换 (DCT) 模块通过使用DCT来重构多通道高清深度特征,以将传统图像域中优化问题集成到深度学习的框架之下。其次,我们引入了一个半耦合特征提取模块,该模块使用共享卷积核来提取公共信息,并使用私有卷积核来提取特定模态的信息。第三,我们采用边缘注意机制来突出引导图像上采样的轮廓信息。广泛的定量和定性评估证明了我们的DCTNet的有效性,它在参数数量相对较少的情况下优于以前的最先进方法。

8月3日 16:20-16:40

c3ef100df5f4f03dfc5c4bb1b3cf4315.gif

20656f90a30c8537f170cc5629379226.jpeg

讲者简介

钟家兴:

牛津大学计算机科学系在读博士,师从Andrew Markham教授和Niki Trigoni教授,研究兴趣为机器学习和计算机视觉,主要是场景理解中的三维视觉以及视频分析。

分享内容

使用静态模型分类动态点云序列

报告简介

场景流是捕捉 3D 点云运动场的强大工具。然而,很难将基于场景流的模型直接应用于动态点云分类,因为点云的非结构化性质使得难以高效和有效地跟踪点对关系。为了在不跟踪点对关系的情况下分析三维运动,我们通过将 ST 曲面的运动学概念推广到特征空间来提出运动学启发的神经网络 (Kinet)。通过在特征空间中展开 ST 曲面的法线求解器,Kinet 隐式地从静态点云模型编码特征级动态。由于网络结构的微小变化和较低的计算开销,使用给定的静态模型联合训练和部署我们的框架是很容易的。在 NvGesture、SHREC'17、MSRAction-3D和NTU-RGBD 上的实验证明了Kinet在性能、参数数量和计算复杂度方面的优势,以及它对各种静态骨干网络的多功能性。开源代码地址为https://github.com/jx-zhong-for-academic-purpose/Kinet。

直播结束后大家可以在群内进行提问,请添加“AI TIME小助手(微信号:AITIME_HY)”,回复“CVPR”,将拉您进“AI TIME CVPR交流群”!

2733ea3521c4b6d3f70d5b9696900c03.gif

AI TIME微信小助手

b9c37f8c0f70043fe63629e8f10e7a19.jpeg

主       办:AI TIME 

合作媒体:AI 数据派、学术头条

合作伙伴:智谱·AI、中国工程院知领直播、学堂在线、蔻享学术、AMiner、 Ever链动、科研云

往期精彩文章推荐

49ac53c991a846e0c09ae6576cf83da9.jpeg

记得关注我们呀!每天都有新知识!

 关于AI TIME 

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

迄今为止,AI TIME已经邀请了700多位海内外讲者,举办了逾300场活动,超260万人次观看。

1c70ae205e09d03107129cf5787f18c1.png

我知道你

在看

~

303764e094cbb64e9fb7c00c8f2b4663.gif

点击 阅读原文 预约直播!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值