今天给大家介绍 StableDiffusion中ControlNet 的两个用法,其中一个是Shuffle(随机洗牌),另一个是 Reference(参考),其中 Reference 还能起到固定角色的功能,无限生成统一风格的角色图片。
一、Shuffle(随机洗牌)
找到ControlNet,勾选启用、完美像素,Shuffle(随机洗牌),从网上找到一张比较有特色的图片扔给ControlNet。
大模型选择二维模型,提示词除了几个质量起手词外,其他的提示词为“Tall buildings, streets, cars, shopping malls”意思是“高楼、街道、汽车、商场”
下图中,左边是SD将参考图打乱后的图片,右边是保留了原图元素之后生成的图片,它将原图中所有的颜色、线条的风格等元素全部沿用到了新生成的图片中(右图),对于做一些主体海报的延伸物料的时候比较有用。
二、Reference(参考)
我们先用 stablediffusion 生成一个角色形象。
正面提示词为:女孩,全身,波浪姜黄色头发,淡褐色眼睛,中式风格,蕾丝镶边,蓝色背景,POP MART盲盒,IP形象,高级自然配色,明亮和谐,C4D风格,3D动画风格的人物设计
((best quality)),((masterpiece)),(detailed), girl,full body, wavy ginger hair, hazel eyes, chinese style, lace trim,Blue background,POP MART blind box, IP image,high-grade natural color matching, bright and harmonious, C4D style, 3D animation style character design
我们把这个角色的图片扔给 ControlNet,然后在提示词中仅输入一些场景词,如坐在教室里 “Sitting in the classroom”,StableDiffusion便会在基本保持原图角色统一的情况下,将原角色变换个场景。
Reference(参考)的设置基本保持默认,勾选”完美像素“,建议把权重值调到1(下图红框内),这样生成的图片能更接近参考图。
下图是仅靠提示词“Sitting in the classroom”生成的图片,虽然与原图相比,衣服的把控略显不足,但人物的面貌上面还是把控挺好的。
也就是说,用此方法,只要一张参考图,就可以无限生成统一风格的角色,而且也不用担心崩脸。
下图是仅靠提示词“Play badminton, badminton court”生成的图片
三、两张照片的融合处理
接着,我们打开第二个 ControlNet,在参考里面拉入第二张图片,这张图片是一个穿着绿色衣服,戴着紫色帽子的小矮人。
仍然以”坐在教室里“为提示词,最后生成了一图这张照片。
仔细观察,这张照片除了保留第一张参考图中人物面貌的特征和大部分衣着特征外,还保留了第二张参考图的绿衣服和蓝帽子特征,是不是很神奇。
好了,本期文章到此结束,如果对你有所帮助,感谢点赞和转发。
写在最后
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。
一、AIGC所有方向的学习路线
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
三、最新AIGC学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。