AI绘画Stable diffusion实战教程:实现网红爆款黏土滤镜,简单免费!

大家好,我是向阳

今天给大家带来的是AI绘画Stable diffusion的实战,也是目前比较火的黏土滤镜(特效)。

1、大模型选择

前面在模型梳理的文章中提到过,SD的大模型(底模)是非常重要的,决定了出图的风格。

而一般我们用于生成黏土滤镜的图片都属于真实人物,所以这里我们采用的是真实系模型:LEOSAM’s HelloWorld XL (模型下载请看文末扫描获取)

2、Lora模型选择

选完了大模型之后,其实还要再选择Lora模型,因为像上面的大模型,它的作用只是尽可能画真实系的人物,但是你要让他画真实系+黏土风格的人物,它其实就很难做到。

没使用Lora的情况下,提示词为:

clay,1man,black hair,

生成的图片

不过有时候在没Lora的情况下也能“抽到”稍微好一点的,比如这个

注:这张也是图生图生成的

Lora模型可以在C站上面进行查找,输入clay关键词[1] 即可

我这里选用的是 CLAYMATE - Claymation Style for SDXL 这个Lora模型。(Lora模型下载请看文末扫描获取)

3、选择图生图

由于我们这次是要给图片加上黏土滤镜风格,所以选用的是图生图,SD需要有一张图片作为参照物。尽管我们前面并没有讲到图生图,但是和文生图总体差异不大。

4、提示词书写

本次我的参考图总体比较简单,就是OpenAI的Sam Altman的图片,所以我的正向提示词其实比较简单:

clay,1man,black hair,lora:CLAYMATE\_V2.03\_:1\,

clay就是黏土的意思,lora:CLAYMATE\_V2.03\_:1 这个就是触发Lora的提示词,这个怎么来的呢?其实也很简单,点击对应的Lora模型即可(提示词区域会自动显示)。

反向提示词(这个看情况调整):

lowres,bad anatomy,((bad hands)),(worst quality:2),(low quality:2),sketches,bad hands,text,error,missing fingers,

5、采样方法

如果你也是跟我一样选择 LEOSAM’s HelloWorld XL 大模型,比较建议的采样方法是 Eluer a,因为这个模型是专门适用于Eluer a,在模型的页面说明有提到,不过你也可以试试 DPM++ 2M Karras,这个我试了也还OK

6、迭代步数

这个我试了之后,一般是25-30步比较合适

7、重绘尺寸

由于参考的图片尺寸不一,使用固定尺寸的话容易和原图风格不搭,所以一般建议使用和原图相同的尺寸(或者相同比例),这里有个小技巧,点这里就能把宽高与参考图保存一致。

8、提示词系数

这个前面讲过,决定了提示词对作图的影响(比重),这个我选择的是7

9、重绘幅度

这个参数比较重要,也是文生图里面没有的,代表的是生成的图片与参考图的相似程度,范围是0-1,越小表示与原图越接近,越大表示与原图不接近,一般选择0.5-0.7

以上就是生成黏土滤镜所需要的模型以及关键参数了,下面是我生成的一些效果图:

你们觉得这个黏土滤镜生成的效果怎么样呢,模型下载请扫描获取哦

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 14
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用稳定扩散算法(stable diffusion)训练自己专属的人像模型是一项基于AI技术的创新工作。下面是一些步骤,帮助你了解如何训练该模型。 首先,你需要准备一个包含大量人像图片的数据集。这个数据集可以包括各种类型的人像,以确保模型的泛化能力。确保图像质量高,具有足够的多样性是非常重要的。 接下来,你需要使用稳定扩散算法来训练模型。这种算法能够有效地处理图像数据,并生成高质量的人像。你可以使用深度学习框架,如PyTorch或TensorFlow来实现这个算法。根据你的需求和喜好,可以选择已经存在的模型架构,如U-Net等,也可以根据自己的特定要求设计新的架构。 训练过程中,你需要进行数据预处理、模型训练和模型优化等步骤。数据预处理包括图像裁剪、缩放和增强等操作,以提高模型的准确性和鲁棒性。模型训练阶段可以使用已标注的数据进行有监督训练,也可以采用无监督或半监督方法。模型优化则包括调整超参数、正则化和使用合适的损失函数等。 在训练完成后,你可以使用你的专属人像模型进行图像生成或编辑。该模型可以通过输入一张未经过加工的人像图像,生成具有艺术性的、更具个性的人像。你可以通过在模型的输入中添加一些约束,如风格引导或语义控制,来进一步控制图像的生成过程。 总的来说,使用稳定扩散训练自己的专属人像模型需要一定的深度学习和计算机视觉知识。但它为用户提供了一种独特而个性化的数字艺术创作体验。通过不断地学习和实践,你可以进一步完善和改进你的模型,以实现更加出色和逼真的人像生成效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值