论文题目 | 时间 | 期刊 | 概述 |
---|---|---|---|
DiffRF: Rendering-guided 3D Radiance Field Diffusion | 2023 | CVPR | 提出了一个3D去噪模型,可直接对体素网格数据进行运算。在去噪公式中加入渲染损失来解决生成的辐射场不完整问题。相比2D的扩散模型,该模型可学习多视角的一致先验信息,使自由视角生成和准确的形状生成成为可能。 |
Single-Stage Diffusion NeRF: A Unified Approach to 3D Generation and Reconstruction | 2023 | CVPR | 提出了一种新的单阶段训练范式,其端到端的目标是共同优化NeRF自动解码器和潜在的扩散模型,即使从稀疏的可用视图中也能同时进行三维重建和先验学习。在测试时,直接对无条件生成的扩散先验进行采样,或将其与未见物体的任意观测值结合起来进行NeRF重建。 |
Generative Novel View Synthesis with 3D-Aware Diffusion Models | 2023 | CVPR | 基于单张图像生成逼真的三维场景视图。该方法使用3D感知扩散模型(3D-aware diffusion models)来学习生成器和噪声得分函数,从而在保证逼真性和一致性的同时,实现高效的图像生成。 |
Novel View Synthesis with Diffusion Models | 2022 | CVPR | 提出了一种用于三维视图合成的扩散模型3DiM,核心是一个姿态条件下的图像到图像扩散模型,该模型以源视图及其姿态作为输入,并为目标姿态生成一个新的视图作为输出。 |
3D Neural Field Generation using Triplane Diffusion | 2022 | CVPR | 对训练数据(如ShapeNet网格)进行预处理,将其分解为一组轴对齐的三平面特征表示。三维训练场景都是由二维特征平面表示的,可直接训练现有的二维扩散模型,生成具有高质量和多样性的三维神经场,优于其他三维感知生成方法。 |
3D-aware Image Generation using 2D Diffusion Models | 2023 | CVPR | 将3D感知图像生成任务表述为多视图2D图像集生成,并进一步表述为一个连续的无条件-有条件的多视图图像生成过程。 |
High-Resolution Image Synthesis with Latent Diffusion Models | 2022 | CVPR | 在潜在扩散模型中,引入了预训练感知压缩模型,它包括一个编码器 和一个解码器 。在latent space上进行diffusion大大减少计算复杂度,相比于其它空间压缩方法,可生成更细致的图像,并且在高分辨率图片生成任务上表现得也很好。 |
NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from 3D-aware Diffusion | 2023 | CVPR | NerfDiff,联合学习图像调节的NeRF和CDM(条件扩散模型),并在测试时使用多视图一致扩散过程微调学习的NeRF。 |
Diffusion Models: A Comprehensive Survey of Methods and Applications | 2023 | Machine Learning | 对现有的扩散生成模型(diffusion model)进行了全面的总结分析,从diffusion model算法细化分类、和其他五大生成模型的关联以及在七大领域中的应用等方面展开,最后提出了diffusion model的现有limitation和未来的发展方向。 |
Diffusion相关论文整理
最新推荐文章于 2024-04-29 19:55:45 发布