![](https://img-blog.csdnimg.cn/fcb3d20308ce4a138abb6739e84c21bc.jpeg?x-oss-process=image/resize,m_fixed,h_224,w_224)
CV
文章平均质量分 89
研究生期间的科研笔记
旋转的油纸伞
中山大学,博客专家认证,人工智能领域优质创作者。
理想是造福全人类。
展开
-
【CVPR 2024】GART: Gaussian Articulated Template Models
【Paper】【Project】GART 利用移动的 3D 高斯混合模型来显式地近似可变形主体的几何形状和外观。它利用了具有可学习前向蒙皮的分类模板模型先验(如 SMPL、SMAL 等),同时通过引入新的潜在骨骼进一步推广到更复杂的非刚性变形。我们介绍了高斯关节模板模型(GART),这是一种显式、高效且富有表现力的表示方法,用于从单目视频中捕捉和渲染非刚性关节主体。GART 利用移动的 3D 高斯混合模型来显式地近似可变形主体的几何形状和外观。原创 2024-07-09 17:07:24 · 778 阅读 · 0 评论 -
【arxiv 2024.02】HumanSplat: Generalizable Single-Image Human Gaussian Splatting with Structure Priors
【Paper】【Project】尽管高保真人体重建技术最近取得了进展,但对密集捕获图像或耗时的每个实例优化的要求极大地阻碍了它们在更广泛场景中的应用。为了解决这些问题,我们提出了 HumanSplat,它可以以通用的方式从单个输入图像中预测任何人类的 3D 高斯 Splatting 属性。特别是,HumanSplat 包含一个 2D 多视图扩散模型和一个具有人体结构先验的潜在重建变压器,能够在统一框架内巧妙地集成几何先验和语义特征。原创 2024-07-04 15:46:21 · 646 阅读 · 0 评论 -
人体三维重建【文章汇总】Humans
PA-MPJPE则是在计算误差之前,首先对预测的姿态进行了最佳比例的刚体变换(包括旋转、平移和缩放),这一过程通常通过Procrustes分析实现,目的是为了消除全局旋转和平移的影响,以及可能的比例差异,从而更加专注于评估姿态结构本身的准确性。PCK指标计算的是被正确检测出的关键点数量占总关键点数量的百分比,这里的“正确检测”指的是预测的关键点位置与真实位置之间的距离小于或等于一个给定的误差阈值(通常以关节或者像素为单位)。:对每个关节的位置序列进行一阶微分,得到各个关节的速度随时间的变化情况。原创 2024-07-03 15:40:48 · 1322 阅读 · 0 评论 -
【CVPR 2024】HumanRef: Single Image to 3D Human Generation via Reference-Guided Diffusion
从单个参考图像生成 3D 人体模型具有挑战性,因为它需要在不可见视图中推断纹理和几何形状,同时保持与参考图像的一致性。以前利用 3D 生成模型的方法受到 3D 训练数据可用性的限制。将文本到图像扩散模型提升到 3D 生成的基于优化的方法通常无法保留参考图像的纹理细节,从而导致不同视图中的外观不一致。在本文中,我们提出了 HumanRef,一种基于单视图输入的 3D 人体生成框架。原创 2024-07-03 15:12:33 · 1221 阅读 · 0 评论 -
【ECCV 2020 (oral)】NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
Authors【Paper】【Project】我们提出了一种方法,通过使用稀疏的输入视图集优化底层连续体积场景函数,实现合成复杂场景的新颖视图的最先进的结果。我们的算法使用全连接(非卷积)深度网络表示场景,其输入是单个连续 5D 坐标(空间位置xyz(x,y,z)xyz和观看方向θϕθϕ),其输出是该空间位置处的体积密度和与视图相关的发射辐射率。我们通过查询沿相机光线的 5D 坐标来合成视图,并使用经典的体积渲染技术将输出颜色和密度投影到图像中。原创 2024-07-01 22:27:45 · 840 阅读 · 1 评论 -
【ACM_2023】3D Gaussian Splatting for Real-Time Radiance Field Rendering
【Project】引入了三个关键要素,能够在保持有竞争力的训练时间的同时实现最先进的视觉质量,并且重要的是允许以 1080p 分辨率进行高质量实时(≥ 30 fps)新颖的视图合成。首先,从相机校准期间产生的稀疏点开始,用 3D 高斯表示场景,保留连续体积辐射场的所需属性以进行场景优化,同时避免在空白空间中进行不必要的计算;其次,对 3D 高斯进行交错优化/密度控制,特别是优化各向异性协方差以实现场景的准确表示;第三,开发了一种快速可见性感知渲染算法,该算法支持各向异性泼溅,既加速训练又允许实时渲染。原创 2024-06-28 19:51:13 · 1634 阅读 · 4 评论 -
Towards a Simultaneous and Granular Identity-Expression Control in Personalized Face Generation
【Paper】【Code】暂无【Project】基于扩散模型的人脸生成方法,条件是IbkgIidIexpIbkgIidIexp,特点是背景,身份复合嵌入,表情。提出了一种改进的中点采样方法t - 0,0 - t/2,t/2 - 0。特点就是更细粒度的表情合成,以前的方法更喜欢使用 2D 面部标志作为表情表示。人类表情包含复杂而微妙的面部动作,并且与面部纹理密切相关,例如面部皱纹和面部动作单元激活,因此2D面部标志不足以表示准确的表情属性。原创 2024-05-06 22:09:31 · 1723 阅读 · 2 评论 -
CelebA-HQ数据集下载【详细明了版】分辨率包括【64,128,256,512,1024】
CelebA-HQ 是在ICLR2018上,nVidia发表了一篇名为Progressive Growing of GANs for Improved Quality, Stability, and Variation的论文,文中通过训练高分辨率GAN生成了一个新的人脸数据集CelebA-HQ.CelebA是港科大汤晓鸥组收集的人脸数据集(总共200k图片),包括了人脸特征点(landmark),人脸属性(attribute)等信息,详细介绍参考链接[1]和[2]原创 2023-08-09 10:22:15 · 7315 阅读 · 20 评论 -
阅读SimSwap遇到的问题【已解决】
论文题目:SimSwap: An Efficient Framework For High Fidelity Face Swapping。这里Attribute Preservation和Identity Modification这两个箭头我不是很能理解。文中说低层主要包含纹理信息,在像素级别约束结果。属性信息是高语义信息主要在于深层次的特征之中。Attribute Preservation为啥指向Discrimination的低层呢?原创 2022-11-22 15:41:16 · 361 阅读 · 0 评论 -
看论文需要用到的一些专业词汇【SOTA,Benchmark,Baseline】
那在论文中的实验部分你的方法需要比较的baseline就是BERT,而需要比较的benchmark就是BERT具体的各项指标。SOTA实际上就是State of the arts 的缩写,指的是在某一个领域做的Performance最好的model,一般就是指在一些benchmark的数据集上跑分非常高的那些模型。唯一的区别就是baseline讲究一套方法,而benchmark更偏向于一个目前最高的指标,比如precision,recall等等可量化的指标。原创 2022-10-20 18:17:29 · 1449 阅读 · 0 评论