AI绘画Stable Diffusion生成的人像总是缺点啥?,那是因为你还不会打光!超强光线效果教程奉上(附光效资料包)

大家好,我是向阳。

当你用AI绘画Stable Diffusion生成出 场景很逼真、人物也很精致的图片时,会不会很开心?但是不是总是感觉照片少了点什么?

其实是因为图片缺少合适的光!

无论是自然光还是人造光

恰当地利用光线,能够为图片塑造质感、创造氛围

如果你希望SD生成的图片不再单调

不妨查看我为大家准备的这篇SD打光教程~


妙招1:关键词提示

“上帝说,要有光,于是,就有了光。”想要给图片打光,咱们不用动嘴,动手就行(doge)。通过使用不同的照明关键词,我们可以让图片获得多样的光线效果。

(柔和照明效果)

例如添加关键词“soft lighting(柔和照明)“,它就能够增强人物面部和背部的光线,带来柔和的光线表现。

(阳光照射效果)

如果想要实现在户外的自然光线效果,我们可以添加关键词“sunlight”,人物及背景景物就会实现自然的阳光照射。你别说,你还真别说,阳光照射的感觉有了!

(工作室灯光效果)

另外推荐的一个关键词是“studio linght(工作室灯光)”,它可以为人物补足光源,带来更强的立体感。纯色的背景再加上充足明亮的光线,这怎么就不是影棚实拍呢?(咱可以把手忽略哈)

通过关键词提示,我们可以很方便地为图片带来各种光照效果,但缺点大家也能看到,就是无法精确地控制光照的方向和范围。如果你想更进一步,不妨跟随小i接着往下看。


妙招2:ControlNet控制

对于经常使用SD的小伙伴来说,应该不会对ControlNet感到陌生。这是一款可以精准控制图像生成效果的AI绘画插件,支持多种预处理器和模型。作者名叫张吕敏,是的你没猜错,这是一位中国人,目前在斯坦福读博。

(图片来源于网络)

通过这个插件,我们能够进一步地精确控制照明区域,实现更好的打光效果。话不多说,一起来看看具体的操作步骤吧!

具体操作步骤

STEP 1

下载并安装ControlNet插件。(插件获取请看下方扫描获取)

STEP 2

在webui打开**“WD1.4标签器”**,同时上传要变换的图片。选择的大模型风格也需与图片类似,这样能够尽可能地保证生成图片与原图的一致性。

STEP 3

通过图片反推出关键词,并点击“发送到图生图”

STEP 4

在“图生图”界面上传准备好了的光束图,上传的光束图尺寸最好与原图_保持一致_。采样方法设置为“DPM+2M”,迭代步数设置为30步。

STEP 5

在ADetailer模块,我们点击“启用after Detailer”,模型选择“face_yolov8n.pt”,这一步可以防止人物的面部出现畸变,毕竟你也不想被奇奇怪怪的五官吓到吧?

STEP 6

接着向下滑动到ControlNet模块,点击开启并上传图片。在_控制类型中选择“lineart(线稿)”,预处理器选择“lineart-realistic”_,之后点击右侧的爆炸图标,我们就能看到图片右侧的预处理结果预览。

STEP 7
在这里插入图片描述

最后点击页面右上角的生成按钮,图片就自动生成啦。我们可以看到原图与光束图形成了很好的结合。

更多效果展示

当我们选择不同的光束图时,光影效果也会随之变化。

1、

2、

3、

通过以上图片我们可以看到,最终的成图很好地呈现了光束图的的光线方向以及范围,明暗有致、也更具艺术表现力。不知道大家是否也忍不住想要试一试呢?

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

在这里插入图片描述

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 22
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用稳定扩散算法(stable diffusion)训练自己专属的人像模型是一项基于AI技术的创新工作。下面是一些步骤,帮助你了解如何训练该模型。 首先,你需要准备一个含大量人像图片的数据集。这个数据集可以括各种类型的人像,以确保模型的泛化能力。确保图像质量高,具有足够的多样性是非常重要的。 接下来,你需要使用稳定扩散算法来训练模型。这种算法能够有效地处理图像数据,并生成高质量的人像。你可以使用深度学习框架,如PyTorch或TensorFlow来实现这个算法。根据你的需求和喜好,可以选择已经存在的模型架构,如U-Net等,也可以根据自己的特定要求设计新的架构。 训练过程中,你需要进行数据预处理、模型训练和模型优化等步骤。数据预处理括图像裁剪、缩放和增强等操作,以提高模型的准确性和鲁棒性。模型训练阶段可以使用已标注的数据进行有监督训练,也可以采用无监督或半监督方法。模型优化则括调整超参数、正则化和使用合适的损失函数等。 在训练完成后,你可以使用你的专属人像模型进行图像生成或编辑。该模型可以通过输入一张未经过加工的人像图像,生成具有艺术性的、更具个性的人像。你可以通过在模型的输入中添加一些约束,如风格引导或语义控制,来进一步控制图像的生成过程。 总的来说,使用稳定扩散训练自己的专属人像模型需要一定的深度学习和计算机视觉知识。但它为用户提供了一种独特而个性化的数字艺术创作体验。通过不断地学习和实践,你可以进一步完善和改进你的模型,以实现更加出色和逼真的人像生成效果
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值