Flux持续火爆,这些LoRA、ControlNet、工作流你值得拥有

大家好,我是每天分享AI应用的萤火君!

Flux自发布以来,受到了广大AI绘画爱好者的一致好评,远远的将SD3甩在了脑后,其出图质量媲美Midjourney。而且Flux迭代迅速,接连发布了Flux.1的开发模型和个人模型,其Lora模型、ControlNet模型也迅速推出,社区创作热情高涨。

为了让大家对Flux有一个全面的认识,本文将介绍下Flux基础模型、LoRA模型,以及ControlNet模型的使用方法。

因为Flux模型目前还不能在Stable Diffusion WebUI中使用,所以本文将以另一个常用的AI绘画工具 ComfyUI 为例进行讲解。同时为了方便大家测试,我在云环境也创建了一个ComfyUI的镜像,内置了Flux的模型和工作流,一键开启,不用费劲吧啦的部署。

Flux介绍

Flux是目前最大的AI绘画开源模型,有120亿个参数,原始文件有23GB那么大。听起来很吓人吧?但别担心,通过ComfyUI的支持,我们可以把模型压缩到12GB,并且它会自动检测显存来调整加载方式,这样我们在普通的消费级电脑上也能跑得动。

Flux 在视觉效果、提示的准确性、大小和比例的灵活性、排版和输出多样性方面,比Midjourney v6.0、DALL·E 3 (HD) 和 SD3-Ultra这些流行模型都要好。它可以在256到2048的宽分辨率范围内生成高质量、少冗余的图像,四肢表现也非常稳定。虽然对硬件有点要求,但效果真的很值。

Flux目前发布的 Flux.1 有三个版本,pro、dev和schnell。pro效果最好,但是闭源不开放;dev效果和pro差不多,虽然有商业使用的限制,但是可以免费测试(你懂的);schnell是个蒸馏模型,可以4步快速出图,效果虽然差点,但是也可以媲美Midjourney v6.0 和 DALL·E 3 (HD)。

使用云环境

云环境的地址:https://www.haoee.com/applicationMarket/applicationDetails?appId=27&IC=XLZLpI7Q

系统有一定的赠送额度,大家可以用几个小时,足够时间体验Flux了。

点击页面上的“立即创建”,即可开启 ComfyUI 应用,如下图所示:

应用创建后会自动跳转至“工作台”。启动成功后,状态将显示为“运行中”,此时点击“打开应用”,即可在浏览器进入操作界面。本应用启动大约需要1-2分钟,如果打开页面显示空白,请刷新再尝试。

ComfyUI在浏览器中启动后,我们可以先通过设置切换到中文界面:

然后点击“加载”旁边的小箭头,选择一个“Flux”工作流,点击“添加提示词队列”,就可以开始愉快的生成了。

如果你懂一些技术,也可以通过手动启动镜像的方式来体验ComfyUI,镜像地址在这里:

https://bbs.haoee.com/postDetail/618

Flux基础模型的使用

这里介绍两个基础模型的工作流:dev模型和schnell模型。

先看dev模型的工作流:Flux的工作流和其它SD模型的工作流没有太大的区别,都是:加载基础模型、编码提示词、定义潜在空间、采样器采样、解码器解码。

不太一样的就是这里增加了一个:Flux引导,Flux引导的目的是增强图片质量,生成训练时CFG为这个值的图像质量,但是不会降低生成速度;此时我们可以将CFG的值设置为1,用来提高生成速度,注意CFG的值不用太高,1-2.5即可;另外Flux.1还不能使用反向提示词。

再看schnell模型的使用:schnell 是个蒸馏模型,可以认为学习到了Flux原始模型的精华部分,这里不需要使用Flux引导,且只需要4步,图片的质量依旧很优秀。

另外这里用到的两个模型中都包含了提示词编码器CLIP和潜在空间解码器VAE,他们不用单独设置。

Flux LoRA模型的使用

再看这个LoRA模型的工作流。

这里使用了双CLIP编码器,并单独加载了CLIP模型,SD3也使用了双CLIP编码,CLIP1可以看做是对标签类提示词的编码,CLIP2是对自然语言提示词的编码,这样编码对图片的质量比较好。另外我们还使用了“CLIP文本编码Flux”这个编码器,它自带Flux引导,就不用单独添加Flux引导节点了。

因为单独加载了CLIP模型,这里使用了UNET加载器来加载Flux的基础模型,加载LoRA也是使用的Flux专属节点,后边的采样器也是专为Flux量身定制的Xlabs Sampler。

Flux ControlNet模型的使用

目前有三个适用于Flux的 ControlNet,分别是 Canny、Hed 和 Depth。这里以Canny为例:

工作流的左边是ControlNet的处理,右边是Flux采样部分的节点。

其中ControlNet的预处理器还是可以使用我们之前在SD1.5和SDXL使用的预处理器,但是加载和应用ControlNet模型要换成Flux专用的。

右侧的Flux采样使用的节点上边都介绍过了,这里就不废话了。有看不懂的地方,可以留言。

ControlNet模型正在快速迭代中,目前已经发布到了V3版本。

资源下载

以上工作流包括使用的模型,发消息“Flux”到公/众\号“萤火遛AI”即可下载。

为了方便大家入门,我整理了一批工作流,包括基本的文生图、图生图、ControlNet的使用、图片的处理、视频的处理等等,也可全部领取。


以上就是本文的主要内容,如有问题,欢迎留言。

用好 ComfyUI:

  • 首先需要对 Stable Diffusion 的基本概念有清晰的理解,熟悉 ComfyUI 的基本使用方式;
  • 然后需要在实践过程中不断尝试、不断加深理解,逐步掌握各类节点的能力和使用方法,提升综合运用各类节点进行创作的能力。

我将在后续文章中持续输出 ComfyUI 的相关知识和热门作品的工作流,帮助大家更快的掌握 Stable Diffusion,创作出满足自己需求的高质量作品,感兴趣的同学请及时关注。

  • 7
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值