IterComp: 从模型图库中迭代合成感知反馈学习,用于文本到图像的生成

在这里插入图片描述
我们从多个模型中收集组成感知模型偏好,并采用迭代反馈学习方法,使基础扩散模型和奖励模型都能逐步自我完善。

我们提出了一种迭代反馈学习方法,通过多次迭代,使基础扩散模型和奖励模型逐步自我完善,从而以闭环方式增强合成性。 理论证明了这一方法的有效性,大量实验也表明我们的方法明显优于之前的 SOTA 方法(如 Omost 和 FLUX),尤其是在多类别对象合成和复杂语义对齐方面。

IterComp 是最新的合成生成方法之一。 在这个资源库中,我们发布了 SDXL Base 1.0 的模型训练。

在这里插入图片描述

from diffusers import DiffusionPipeline
import torch

pipe = DiffusionPipeline.from_pretrained("comin/IterComp", torch_dtype=torch.float16, use_safetensors=True)
pipe.to("cuda")
# if using torch < 2.0
# pipe.enable_xformers_memory_efficient_attention()

prompt = "An astronaut riding a green horse"
image = pipe(prompt=prompt).images[0]
image.save("output.png")

IterComp 可以作为各种组合生成方法(如 RPG 和 Omost)的强大支柱。 我们建议将 IterComp 集成到这些方法中,以获得更先进的组合生成结果。

Github
https://github.com/YangLing0818/IterComp
Huggingface
https://huggingface.co/comin/IterComp

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值