- 博客(4)
- 收藏
- 关注
原创 扩散模型从原理到实践-第四周
DDIM Inversion每一步都会产生误差,对于无条件扩散模型,累积误差可以忽略。但是对基于classifier-free guidance(w >1)的扩散模型,累积误差会不断增加,DDIM Inversion最终获得的噪声向量可能会偏离高斯分布,再经过DDIM采样,最终生成的图像会严重偏离原图像,并可能产生视觉伪影。
2023-11-08 15:33:43 3321 1
原创 扩散模型从原理到实践-第三周
任务三:Stable Diffusion原理与实战打卡内容:学习笔记作业:自行组装stable diffusion 并提交几个生成结果当我们处理的图像尺寸增大时,需要的计算能力也随之增加。特别是在执行一种叫做“自注意力”的操作时,所需的计算量会随着输入数量的增加而平方级增长。例如,一个128像素的正方形图像比64像素的正方形图像有4倍多的像素点,因此在自注意力层中它需要16倍(即4的平方)的内存和计算能力。对于希望生成高分辨率图像的人来说,这是一个大问题!潜在扩散技术通过使用一个名为变分自编码器(VAE)的
2023-11-02 21:41:34 534
原创 扩散模型从原理到实践-第一周
生成模型在深度学习中,⽣成模型的⽬标是根据给定的样本(训练数据)⽣成新样本。⾸先给定⼀批训练数据X,假设其服从某种复杂的真实分布p(x),则给定的训练数据可视为从该分布中采样的观测样本x。如果能够从这些观测样本中估计出训练数据的真实分布,不就可以从该分布中源源不断地采样出新的样本了吗?⽣成模型实际上就是这么做的,它的作⽤是估计训练数据的真实分布,并将其假定为q(x)。在深度学习中,这个过程称为拟合⽹络。那么问题来了,怎么才能知道估计的分布q(x)和真实分布p(x)的差距⼤不⼤呢?
2023-10-20 20:58:21 396
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人