AI绘画Stable Diffusion:为什么生成的图片总是糊的,如何使用SDXL模型精准生图教程

大家好,我是设计师阿威

最近有不少小伙伴刚入门AI绘画的小伙伴,总是说自己生成的图片总是糊的,那么今天就教大家怎么让避免生成模糊的图片,精准生成高清大图

我们先看一下出图时模糊的图片效果。

我相信很多初学者在开始绘图的时候经常会碰到这种情况。当然我自己也曾经碰到过,我总结了一下,一般有以下几种情况。

第一种情况:

大模型使用的是SDXL大模型,VAE模型选择了vae-ft-mse-840000-ema-pruned.safetensors。(必现场景)

这种情况是必现的。也是很多网友使用SD出图模糊的主要原因。

为什么这种情况会出现呢?

我们首先要了解一下什么是VAE模型,可以把VAE模型理解为颜色滤镜,它主要用于调节和美化生成图片的色彩。

VAE模型为什么会造成这个问题呢,主要是VAE模型也区分SD1.5和SDXL的模型的。我们的大模型使用的是基于SDXL的大模型,但是VAE模型选择的ae-ft-mse-840000-ema-pruned.safetensors是基于SD1.5的大模型,二者并不匹配。

下面是C站上面关于SD1.5的模型。

从上面的图片我们可以看到很多常见的VAE模型都是基于SD1.5的。这里就包括我们上面提到的vae-ft-mse-840000-ema-pruned。

关于SD1.5的VAE模型这里罗列了一些常见的,感兴趣的朋友可以了解一下。

  • vae-ft-mse-840000-ema-pruned

  • vae-ft-ema-560000-ema

  • kl-f8-anime系列(主要用于动漫大模型)

  • ClearVAE(主要用于动漫大模型)

  • Color101(生成更鲜艳色彩,更接近HDR效果和更自然图像的VAE)

下面是C站上面关于SDXL的模型。

基于SDXL的VAE模型相当比较少,最常用的是sdxl vae模型。为什么基于SDXL的VAE模型比较少呢,因为VAE模型本身就比较小,很多SDXL的大模型都已经融入了VAE模型,所以基于SDXL的大模型一般不选择VAE模型出图效果也不错的。

一般来说,对于基于SDXL的大模型,我们VAE模型可以不用选择,要选择的话最好选择sdxl_vae。

我们来对比看一下效果。

正向提示词:1 super beautiful chinese girl, solo

反向提示词:nsfw,easynegative,ng_deepnegative_v1_75t,(worst quality:2),(low quality:2),(normal quality:2),lowres,bad anatomy,bad hands,normal quality,((monochrome)),((grayscale)),((watermark)),

下面是相关参数配置:

  • 大模型:SDXL 1.0的基础大模型

  • 采样器:Euler a

  • 采样迭代步数:30

  • 图片宽高:1024*1024。

  • 提示词引导系数(CFG):7

不使用VAE模型生成的图片

使用sdxl_vae模型生成的图片

基于SDXL的大模型使用VAE模型和不使用VAE模型差别大吗,大家可以自己甄别哈。

总结:使用SDXL的大模型+SD 1.5的VAE模型生成的图片大概率都是糊的。

第二种情况:大模型使用的是基于SDXL大模型,选择了Refiner(精炼器)

这种情况不是必现的。

今天尝试了很多次,都没有模拟出来,不过之前在使用SDXL基础模型出图的时候碰到的概率还是蛮大的,后面我选择SDXL基础模型的时候关于Refiner选项我一般是不选中的。

关于SDXL的Refiner(精炼器)主要属于细化模型。对图像进一步优化细节。目前有些大模型并不兼容Refiner(精炼器)。

第三种情况:由于各种原因图片未生成完毕SD系统工具出问题了,例如报OOM的显存异常等

另外:如果我们采样迭代步数设置的比较小,例如上面的示例中将采样迭代步数设置为5,出来的图片也是模糊的,但是和上面图片的模糊不是一个类型哈。

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 7
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用稳定扩散算法(stable diffusion)训练自己专属的人像模型是一项基于AI技术的创新工作。下面是一些步骤,帮助你了解如何训练该模型。 首先,你需要备一个包含大量人像图片的数据集。这个数据集可以包括各种类型的人像,以确保模型的泛化能力。确保像质量高,具有足够的多样性是非常重要的。 接下来,你需要使用稳定扩散算法来训练模型。这种算法能够有效地处理像数据,并生成高质量的人像。你可以使用深度学习框架,如PyTorch或TensorFlow来实现这个算法。根据你的需求和喜好,可以选择已经存在的模型架构,如U-Net等,也可以根据自己的特定要求设计新的架构。 训练过程中,你需要进行数据预处理、模型训练和模型优化等步骤。数据预处理包括像裁剪、缩放和增强等操作,以提高模型确性和鲁棒性。模型训练阶段可以使用已标注的数据进行有监督训练,也可以采用无监督或半监督方法。模型优化则包括调整超参数、正则化和使用合适的损失函数等。 在训练完成后,你可以使用你的专属人像模型进行生成或编辑。该模型可以通过输入一张未经过加工的人像像,生成具有艺术性的、更具个性的人像。你可以通过在模型的输入中添加一些约束,如风格引导或语义控制,来进一步控制像的生成过程。 总的来说,使用稳定扩散训练自己的专属人像模型需要一定的深度学习和计算机视觉知识。但它为用户提供了一种独特而个性化的数字艺术创作体验。通过不断地学习和实践,你可以进一步完善和改进你的模型,以实现更加出色和逼真的人像生成效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值