参考:https://huggingface.co/PixArt-alpha/PixArt-LCM-XL-2-1024-MS
使用下来这个模型效果速度算最不错的
下载模型:(1080p图片生成,LCM模型是lcm加速)
PixArt-LCM-XL-2-1024-MS
或
PixArt-XL-2-1024-MS
1、下载
国内快速下载参考:https://blog.csdn.net/weixin_42357472/article/details/132663693
2、使用PixArt-LCM-XL-2-1024-MS(速度10s左右可以出图)
cpu:
1)测试效率图片效果要越好,提高num_inference_steps=24 数值
2)enable_model_cpu_offload(),实际上最后还是使用了gpu的;是在gpu资源不足可以这种方式来进行推理使用:这段代码将整个SD模型或SD模型的部分模块的权重加载到CPU中,并在推理时再将所需的权重加载到GPU,以实现更好的性能和灵活性。
impor