最近很火的FLUX.1文生图模型本地一键整合包SwarmUI,schnell量化版,6G显存可畅玩的FLUX.1

图片

最近一个新的文生图模型突然火出圈,它就是由Black Forest Labs(黑森林实验室)团队开发的FLUX.1。

Black Forest Labs估计很多人都没听说过,还以为是新生的创业团队,现在就先来说一说Black Forest Labs。玩过AI绘画的,都知道Stable Diffusion吧,业界最知名,最强大,最火爆的开源AI绘画模型。而Black Forest Labs团队就是Stable Diffusion的东家Stability AI团队的核心成员创办的。前段时间大家应该听过很多关于Stability AI的新闻,整个核心团队集体离职,估计是早有打算,不然FLUX.1也不可能这么快就横空出世了。

Stable Diffusion,从刚开始的石破天惊之后,也断断续续更新过很多版本,但是亮点越来越少,甚至逐渐淡出绘画圈,直到前段时间发布的SD3才逐渐回归大家视野。不过问题也还是很多,其中显而易见的两个问题是画手和文字,FLUX在这两个方面都有巨大的提升。

一键整合包下载:https://deepface.cc/thread-316-1-1.html

下面就贴上我用FLUX.1生成的手和文字的效果图看看。

图片

图片

图片

图片

下面说说FLUX.1的几个特色

图片质量提高了

以更高分辨率生成令人惊叹的视觉效果,而且生成速度有了较大的提升,1024分辨率的图只要分分钟就可以生成,效果依旧惊艳。

**超强的文字嵌入能力

**

图片中添加文字,变得超级简单

人物更加逼真自然

关于人物,最显而易见的就是画出来的手终于正常了很多

生成内容更加精准

根据您的输入获得更准确和相关的图像。

这次发布的模型有三个版本,分别是pro,dev,schnell。
**
**

FLUX.1 [pro]:闭源版本,只能通过API调用。

FLUX.1 [dev]:开发板模型,以非商业许可的方式开源,适合开发者,个人玩家。

FLUX.1 [schnell]:基础模型的精简版本,运行速度快,采用 Apache 2 许可证,可以商用。

DEV版本需要硬件要求较高,今天分享的就是大佬基于schnell量化的FP8版本,有人调优实测4G显存可出图,但是6G显存是绝对没问题的。

网上现在流传较多的都是基于ComfyUI的工作流版本,因为操作太复杂,让很多想尝试整个新生绘画模型的同学望而却步。所以大佬们就开发了整个傻瓜版的一键包,只需要安装CUDA12.5和VisualStudio就可以一键运行了。

CUDA12.5可以到Nvidia官网下载,我之前的帖子也有讲过安装,点此查看,VS安装的时候需要勾选.NET8即可(VS安装程序也打包在一键包,双击安装即可)。

这个整合包还支持ComfyUI工作流,不需要手动搭建,直接点开即用。

图片

更多的功能,大家自己下载体验。

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

<think>好的,我现在要解决用户的问题,关于如何在Web UI中应用Flux模型进行开发。首先,我需要回顾用户提供的引用内容,从中提取有用的信息。用户提到了几个引用,其中引用[2]和[4]提到了Stable Diffusion WebUI Forge支持Flux模型,并且需要特定的部署步骤。引用[3]则提到了flux-webui项目,使用Gradio和Diffusers实现,可以自动下载模型。 接下来,我需要整理出一个清晰的步骤指南。首先,用户可能需要安装Forge版本的WebUI,因为引用[2]和[4]都提到Forge支持Flux模型。然后,安装Flux模型文件到指定的目录,比如stable-diffusion文件夹。之后,在WebUI界面中选择Flux模型,并根据需要调整参数,如分辨率、采样器等。引用[3]提到flux-webui项目支持一次生成多张图片,可能需要在参数中设置批量生成。 另外,用户可能需要考虑显存的问题,因为引用[1]提到6G显存可用,所以可能需要提醒用户调整参数以适应硬件限制。同时,引用[2]指出ControlNet等特性可能还未完全支持,需要告知用户当前限制。 还需要检查是否有其他注意事项,比如模型下载的路径是否正确,是否需要额外的依赖安装,或者是否有推荐的参数配置。例如,引用[3]中的flux-webui基于Gradio和Diffusers,可能需要用户安装相关库。 最后,生成相关问题,需要考虑用户可能遇到的后续问题,比如性能优化、与其他工具集成、模型训练等。确保问题覆盖用户可能感兴趣的方向,同时基于现有引用内容,避免超出已知信息。</think>### 如何在Web UI中应用Flux模型进行开发 #### 1. 部署支持Flux的WebUI环境 - **选择Forge版本**:Flux模型需要基于Stable Diffusion WebUI Forge框架运行,这是原版WebUI的轻量化衍生版本,优化了显存占用(最低6G显存可运行)[^1][^2]。 - **本地部署步骤**: - 下载Forge整合(如算力互联镜像或FLUX.1整合) - 解压后通过`webui-user.bat`启动服务 - 访问`http://127.0.0.1:7860`进入界面[^4] #### 2. 模型配置流程 ```python # 模型存放路径示例(Windows系统) models/ ├── Stable-diffusion/ │ └── flux.safetensors # Flux模型文件 └── VAE/ └── flux.vae.pt # 配套VAE文件 ``` - 从HuggingFace下载`schnell/Flux-model`官方模型文件[^3] - 将模型文件放入对应目录后,在WebUI界面左上角模型选择栏切换为Flux #### 3. 关键参数配置建议 | 参数类别 | 推荐值 | 说明 | |---------|--------|------| | 分辨率 | 1024x1024 | Flux原生训练分辨率 | | 采样器 | DPM++ 2M | 配合`cfg_scale=3-7`效果最佳 | | 提示词引导 | 建议≤7 | 过高会导致图像过曝 | | 批量生成 | 支持多图并行 | 利用gradio特性一次生成多图 #### 4. 开发注意事项 - 当前Forge版本对ControlNet等插件的支持尚不完善,建议优先使用基础文生图/图生图功能 - 使用`--medvram`参数可优化显存占用,6G显存设备需设置`xformers`加速 - 可通过API接口集成开发: ```python import requests payload = { "prompt": "cyberpunk cityscape", "model": "flux", "steps": 20 } response = requests.post("http://localhost:7860/sdapi/v1/txt2img", json=payload) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值