点击蓝字
关注我们
AI TIME欢迎每一位AI爱好者的加入!
7月26日晚上7点半,本期我们邀请到清华大学刘烨斌老师实验室CVPR 2022的四位讲者,给大家带来精彩的分享!
哔哩哔哩直播通道
扫码关注AI TIME哔哩哔哩官方账号预约直播
7月26日 19:30-19:50
讲者简介
郑泽荣:
清华大学自动化系四年级博士生,本科毕业于清华大学自动化系。曾在美国南加州大学和Facebook Reality Lab实习。研究方向聚焦于三维视觉,主要围绕三维人体建模展开,研究内容包括了三维人体的运动捕捉、单图像三维人体重建、三维数字化身学习。截至到目前,郑泽荣已在CVPR/ICCV/ECCV/TPAMI发表论文13篇,其中一作5篇,二作3篇,口头报告6篇。
分享内容
基于结构化局部神经辐射场的可驱动虚拟人体建模
报告简介
从RGB视频中创建一个可设置动画的穿着衣服的人类头像非常具有挑战性,特别是对于宽松的衣服,这主要是由于运动建模的困难。为了解决这个问题,在最近的神经场景渲染技术的基础上引入了一种新的表示方法。表示方法的核心是一组结构化的局部辐射场,这些辐射场锚定在统计人体模板上采样的预定义节点上。这些局部辐射场不仅利用了形状和外观建模中隐式表示的灵活性,还将布料变形分解为骨架运动、节点残差移和每个单独辐射场内的动态细节变化。为了从RGB数据中学习表示并促进姿势泛化,提出在条件生成潜在空间中学习节点平移和细节变化。总的来说,方法无这种需预先扫描模板,就能够为各种类型的衣服自动构建可动画的人类化身,并且可以生成具有新颖姿势的动态细节的真实图像。
7月26日 19:50-20:10
讲者简介
王立祯:
清华大学自动化系四年级博士生,本科毕业于清华大学物理系。曾在美国德克萨斯州奥斯汀分校和蚂蚁集团实习。研究方向聚焦于三维视觉,主要围绕三维人脸建模和二维人脸生成,研究内容包括了三维人脸重建、人脸表情跟踪与数字人驱动、二维数字人脸生成与驱动。截至到目前,王立祯已在CVPR/ECCV/TPAMI发表一作论文2篇。
分享内容
一种基于融合数据集的高精度三维人脸形变模型--FaceVerse
报告简介
FaceVerse,一种高细粒度的三维神经人脸模型,它是由包含六万RGB-D图像和超过两千高保真三维头部扫描模型的混合东亚人脸数据集构建的。提出了一种新的从粗到细的结构,以更好地利用混合数据集。在粗略模块中,从大规模 RGB-D 图像生成基础参数模型,该模型能够准确预测不同性别、年龄等的粗糙三维人脸模型。然后在精细模块中,使用经过训练的条件 StyleGAN 架构引入高保真扫描模型,丰富精细的面部几何和纹理细节。请注意,与以前的方法不同,基础模块和详细模块都是可变的,这使得调整三维人脸模型的基本属性和面部细节成为一种创新应用。此外,提出了一种基于可微渲染的单图像拟合框架。丰富的实验表明,该方法优于最先进的方法。
7月26日 20:10-20:30
讲者简介
邵睿智:
清华大学自动化系二年级博士生。研究方向主要是多视角下三维人体的重建与神经渲染,包括多视角高精度多人隐式重建以及高质量人体自由视点神经渲染。截至目前,邵睿智已在CVPR/ICCV/ECCV发表论文共5篇,其中一作4篇,口头报告1篇。
分享内容
结合隐式表面场和神经辐射场的高质量人体重建与渲染
报告简介
人体三维重建以及自由视点渲染是三维视觉中的热点问题,也是元宇宙数字人实现的关键技术。为实现这个目标,本文提出了一种新的双重场表达以及多视角transformer架构,一方面能够将隐式场SDF和神经辐射场NeRF结合起来,另一方面可以有效地融合提取多视角高分辨率的图片信息,进而同时实现稀疏视角下人体几何的高精度重建和纹理高质量渲染。因为我们的网络同时学习两种场的先验,所以不仅能够提高人体渲染的质量还可以通过快速finetune进一步优化几何结果。这种方法不依赖人体模板smpl,是首个general的人体稀疏视角高质量重建和高分辨渲染系统,并在数据集和现实数据上都取得了不错的效果。
7月26日 20:30-20:50
讲者简介
李梦成:
清华大学自动化系四年级博士生,本科毕业于清华大学物理系。研究方向聚焦于三维视觉,主要围绕人手的姿态估计、三维重建和交互分析,研究内容包括了三维人手重建、单人双手交互重建、人手-物体交互重建等。截至到目前,李梦成已在CVPR/ICCV发表论文2篇,其中包括一作口头报告1篇。
分享内容
基于交互注意力图卷积的单图像双手重建
报告简介
图卷积网络(GCN)在单手重建任务中取得了巨大的成功,而利用GCN进行交互双手重建的研究仍处于探索阶段。在本文中,我们提出了IntagHand,这是第一个从单张RGB图像重建双手的基于图卷积的网络。为了解决双手重建中的遮挡和交互问题,我们在原始GCN的每个上采样步骤中引入了两个新的基于注意力的模块。第一个模块是金字塔图像特征注意(PIFA)模块,该模块利用多分辨率特征隐式获得顶点到图像的对齐关系。第二个模块是交叉手注意力(CHA)模块,它通过在两只手的顶点之间建立密集的交叉注意力来编码双手的交互相关性。我们的模型在InterHand2.6M数据集上大大优于所有现有的双手重建方法。此外,消融研究验证了PIFA和CHA模块在提高重建精度方面的有效性。在野外真实图像上的结果进一步证明了我们网络的泛化能力。
直播结束后大家可以在群内进行提问,请添加“AI TIME小助手(微信号:AITIME_HY)”,回复“CVPR”,将拉您进“AI TIME CVPR交流群”!
AI TIME微信小助手
主 办:AI TIME
联合主办:国家科技信息中心、AMiner·深圳·超脑
合作媒体:AI 数据派、学术头条
合作伙伴:智谱·AI、中国工程院知领直播、学堂在线、蔻享学术、AMiner、 Ever链动、科研云
往期精彩文章推荐
记得关注我们呀!每天都有新知识!
关于AI TIME
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
迄今为止,AI TIME已经邀请了700多位海内外讲者,举办了逾300场活动,超260万人次观看。
我知道你
在看
哦
~
点击 阅读原文 预约直播!