注意:
本节点主要是针对于显存不足的用户的,4090的用户请略过。 用于缓解显存不足导致炸显存OOM,或崩溃的情况。
Flux 是出了名的大
模型,模型是真的大
,原版的23G模型,没有个24G显存真心跑不动。
随着发展,社区出现了量化fp8
版本,这个是效果仅次于原版Flux大模型的,8G显存的用户就不要想了,肯定会导致ComfyUI的崩溃退出的。后来又出现了NF4版本、GGUF版本,届时8G显存的用户,已经能用GGUF的Q4版本来跑Flux模型了。
随着社区的发展,今天发现一个很是牛逼的插件:
插件地址: https://github.com/MinusZoneAI/ComfyUI-FluxExt-MZ
它能用分层加载技术,将Flux大模型动态的加载,实测8G显存跑fp8的Flux模型,显存占用5G左右,非常的牛逼。
FluxExt-MZ 插件安装使用
插件安装非常简单,没有依赖,直接clone到custom_nodes
即可:
cd comfyui/custom_nodes
git clone https://github.com/MinusZoneAI/ComfyUI-FluxExt-MZ.git
然后重启ComfyUI即可使用。
就一个节点: