AI绘画教程 Stable Diffusion中如何控制人像的姿势?

在AI绘画中,有时候我们需要主角(人物或动物)摆出特定的姿势,该怎么做呢?

第一种方法:以图生图

打开Stable Diffusion界面,点击imag2img

下面出现一个”drop image here or click to upload”的方框,从网上找一张你希望呈现的姿势图片,比如一个老鹰,姿势:双眼盯着远方。把这张图片拖拽到方框,或者从本地电脑上传。

然后在提示词框里输入提示词,比如:a dragon ,然后点击generate生成图像。但是这样生成的图像,姿势不好控制,有些会比较像,有些差很远。

第二种方法:使用ControlNet。这是一个很强大的stable Diffusion插件,可以精准的控制AI绘画中人物或动物的姿势,从而生成很多好玩有创意的图片。

比如,穿上钢铁侠战衣的擎天柱:

现在大部分stable Diffusion的colab包都自带ControlNet,如果你使用的版本里没有,可以打开extensions,在安装时勾选ControlNet

下载ControlNet模型那一栏,选择通用的姿势控制模型ControlNet_openpose(也可以都选)

现在,打开stable Diffusion,可以在提示词框下面看到control net的按钮

有一个Enable的方框,勾选,就启用control net了。

我们来测试下control net的效果。先不启用control net,输入提示词,生成如下图片,可以看到图片中人物的姿势各异。

然后我们上传一张瑜伽动作姿势的图片到control net,然后勾选enable,Preprocessor选择openpose,Model选择openpose-sd21-safe [2be3125b]

再次点击generate按钮,这时候生成的图片基本保持了和上传图像中的瑜伽动作

但是,这个动作和源照片中的瑜伽动作差距有些大,生成效果不是很理想。这不是插件的问题,而是选用的模型不太对。

Control net的Preprocessor有很多种模型可选:canny、depth、depth_leres、hed、mlsd、

normal_map、openpose、openposehand、clip_vision、color、pidinet、scribble、fake_scribble、segmentation、binary。这些都是什么意思呢?

Openpose:最常用的模型,采取图片中的人物骨架做为参考,以生成图片。用于人物动作。

Canny:撷取图片中的边缘线做为参考,以生成图片

mlsd :撷取图片中明显的直线做为参考,以生成图片。一般用于建筑、物体的检测,常用于室内装潢,建筑设计

Hed:撷取图片中的特征做为参考,以生成图片。也是边缘提取,跟canny类似

Scribbles:手稿模型 撷取使用者提供的线条做为参考,以生成图片。可以把随手画的涂鸦生成精美的画面

Segmentation:将图片化为大略的色块作为参考,以生成图片

Depth:提取深度检测信息,可以生成具有同样深度结构的图 。

normal:模型识别,跟深度图有点类似,但对于细节的保留更加的精确。通过读取原图片中的深度信息和法线背景阈值。

Pidinet:检测图像中的曲线和直线条,然后生成图片。生成的结果和HED有些相似。不过,细节会少一些。

Fake Scribble:从成品图中提取出草图 ,和涂鸦是倒过来的。

总结下,这些不同的模型采用的不同方法来控制姿势,并没有谁更好谁更差,而是需要根据需要和图像特征来选择对应的合适模型。

通常来说,对于人像,HED 模型可以最精准的复制人物动作。Canny 、 depth、normal也不错,但是有时可能会有一些变形。从上面图像来看,不仅复制了动作,还复制了、发型和衣服,效果不是很理想。OpenPose在复制动作的同时,则没有死板的去复制衣服和发型,而是精准的生成提示词中的内容,可以说是形神兼备,效果最佳。mLSD则完全不适合人像,复制效果非常差。

回到最开始的例子中,将preprocessor模型从openpose改成hed,可以看到生成图片中人物的动作和源图片中的人物动作一模一样,精准还原。

写在最后

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

在这里插入图片描述

在这里插入图片描述

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!
在这里插入图片描述

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
在这里插入图片描述
在这里插入图片描述

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

在这里插入图片描述

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
在这里插入图片描述

若有侵权,请联系删除
  • 15
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用稳定扩散算法(stable diffusion)训练自己专属的人像模型是一项基于AI技术的创新工作。下面是一些步骤,帮助你了解如何训练该模型。 首先,你需要准备一个包含大量人像图片的数据集。这个数据集可以包括各种类型的人像,以确保模型的泛化能力。确保图像质量高,具有足够的多样性是非常重要的。 接下来,你需要使用稳定扩散算法来训练模型。这种算法能够有效地处理图像数据,并生成高质量的人像。你可以使用深度学习框架,如PyTorch或TensorFlow来实现这个算法。根据你的需求和喜好,可以选择已经存在的模型架构,如U-Net等,也可以根据自己的特定要求设计新的架构。 训练过程,你需要进行数据预处理、模型训练和模型优化等步骤。数据预处理包括图像裁剪、缩放和增强等操作,以提高模型的准确性和鲁棒性。模型训练阶段可以使用已标注的数据进行有监督训练,也可以采用无监督或半监督方法。模型优化则包括调整超参数、正则化和使用合适的损失函数等。 在训练完成后,你可以使用你的专属人像模型进行图像生成或编辑。该模型可以通过输入一张未经过加工的人像图像,生成具有艺术性的、更具个性的人像。你可以通过在模型的输入添加一些约束,如风格引导或语义控制,来进一步控制图像的生成过程。 总的来说,使用稳定扩散训练自己的专属人像模型需要一定的深度学习和计算机视觉知识。但它为用户提供了一种独特而个性化的数字艺术创作体验。通过不断地学习和实践,你可以进一步完善和改进你的模型,以实现更加出色和逼真的人像生成效果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值