【学习笔记】文生图模型——Stable diffusion3.0

2.0原理才看到VAE,sd3.0就发布了,虽然还没看到源码和详解,但原来的那个小方向估计得弃。人已经麻了。


1.LDMs模型(stable diffusion≈LDMs+CLIP)

e2268298ff7644f48d80f7a7c4cc340d.png

 

2.stable diffusion3.0模型架构图e4bc041a74fa4209b66b2506eaac53c7.png

3.主要改进地方

①前向加噪过程:引入了新的噪声采样器用于改善Rectified Flow训练,该方法优化了噪声的分布和添加方式。

②采样过程:基于Transformer的MM-DiT新架构,取代了原模型中的U-Net预测噪声,与Sora同源。该架构考虑了文本到图像任务的多模态特性。

 

3.1 Rectified Flow

Rectified Flow作为前向路径的一个特别选择,它通过直线连接数据和噪声,简化了数据和噪声之间的转换。

Rectified Flow模型通过构建两个分布之间的常微分方程(ODE)的传输映射来处理生成建模。

先前版本里,Stable Diffusion生成模型训练时使用的是LDM-Linear,通过线性变换来模拟扩散过程中的数据转为噪声的随机分布,需要为每个时间步长求解ODE。每一步都需要计算添加噪声后图像的分布。

b64e30ac3c874803a3a14654a86d5374.png

5ef1c916243a418b922821a28e55f147.png

*速度v由神经网络的权重Θ参数化。

而本文使用了替代方法:直接回归一个向量场eq?u_t,该向量场生成eq?p_0和 eq?p_1%5Csim%20N%280%2C1%29之间的概率路径。

db1b6a5a5a7843e9955eb2885aa11a61.png

向量场eq?u_t用于定义数据点在各个时间步长上如何变化以逐渐接近噪声分布,每个时间点t都指示了数据点在特定时间步长上应该移动的方向和距离。

Rectified Flow使用向量场描述数据如何转化为噪声,损失函数为:

e99e346cc4684882a0bc20d39e3ad630.png

重参数化后写作:

902b04dd55614d0a9ca9fb90ba7ff40a.png

 

Rectified Flow原理基于一个简单的常微分方程(ODE),通过构造一个“尽量走直线”的连续运动系统来产生想要的数据分布。

7346d4bbfeda490e947d784212324118.png

*上图解释:Reflow将ODE的轨迹进一步变直。

71678f234d4c4fadb5a25774650bdbc3.png

*上图解释:举个实例,Rectified Flow可以将DDPM中模型预测的方差与真实方差之间的损失项化简一步到位。

 

文中引用之前的工作将前向过程的目标函数统一写作:

8b7d93c519364f3eaf80dfee4a67e987.png

注:t是按照某个区间上的均匀分布抽取的,ξ是一个服从均值为0、协方差矩阵为I(单位矩阵)的多元正态分布的随机向量。

作者对不同的公式和损失权重进行比较,由此提出了一个新的时间步策略,将时间上的分布从常用的均匀分布eq?U%28t%29改变为具有密度eq?%5Cpi%20%28t%29的分布,等价于使用加权损失eq?L_%7B%5Comega%20%5Cpi%20%7D%28t%29,其权重为:

3d322756133b4b3da3eb0aced2bb82c5.png

作者希望通过更频繁地采样中间时间步长来给予它们更大的权重,因此讨论了用于加权中间时间步的采样策略。

 

3.2 MM-DiT

Multimodal Diffusion Backbone是一种架构,它基于DiT(Peebles & Xie, 2023)架构。作者使用这个架构取代了U-net模型,用于输出噪声预测和对角协方差预测。

 

3.2.1 DiT

DiT只考虑了基于类别条件的图像生成,并使用调制机制依赖于扩散过程的时间步和类别标签来调节神经网络。将随机生成的噪声图像的隐向量“补丁化”(Patchify),输入到DiT Block里,时序t和文本作为条件嵌入来回归出每层的参数,使得网络能够在必要时对输入进行更复杂的变换,而在其他时候则保持输入不变。这个思想与残差连接相关。

注:残差连接是一种常用的技术,它允许网络学习到恒等映射,即在某些情况下,输入可以直接通过神经层而不被改变。输出协方差预测的目的是为了捕捉和建模输入数据的不确定性和相关性。

ad9d4337ab6e4249b2de691d0ebe397c.png

 

3.2.2 MM-DiT

类似地,作者将时间步t和cvec的联合嵌入向量输入到调制机制中。然而,由于池化的文本向量仅保留了关于文本输入的粗粒度信息,神经网络还需要来自序列表示eq?c_%7Bctxt%7D的信息。

1.用三个文本编码器训练模型的文本向量。将CLIP-G/14和CLIP-L/14池化输出连接起来形成pooled(2048维)向量,与经过正弦编码后的时间步连接作为MM-DiT的条件输入eq?y。另外把倒数第二层输出的tokens排列成4096*154矩阵,经过线性层变换之后作为MM-DiT的文本输入eq?c_%7Bctxt%7D

2.将随机生成的噪声图像的隐向量“补丁化”(2*2)平铺之后添加位置编码,生成eq?x作为MM-DiT的图像输入。

3.由于文本和图像嵌入在概念上有很大的不同,作者为两种模态使用两组独立的权重,这相当于为每种模态设置两个独立的transformer,但是在注意力机制中将两种模态的序列结合起来,这样两种表示可以在它们自己的空间中工作,同时考虑到另一个模态。

4..y作为条件输入回归出缩放、移位、维度缩放的参数,使在块内的任何残差连接之前立即应用某些参数或者操作。

5.最后输出噪声预测。

 

根据模型的深度d(即注意力块的数量)来参数化模型的大小,d=38时参数达到80亿,之前的模型参数仅8亿。


写完的时候发现不仅主创跑了,CEO也卸任了,希望还能开源吧。

 

  • 18
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值