ComfyUI最新工作流打破角色生成瓶颈!本文拆解F.1模型核心算法,手把手教你用特征锚点锁定人物姿态、表情、光影,实现跨场景无缝衔接。从动漫人设到虚拟主播,效率提升300%!
👉AI绘画基础+速成+进阶使用教程👈
观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
这份完整版的工作流已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
工作流拆解
一、角色生成
比较重要的部分:
① 加载人物pose图
② ControlNet模型使用FLUX.1-dev-ControlNet-Union-Pro-InstantX
下载地址:
https://huggingface.co/Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro
③ 正向提示词参考
A character sheet with a white background, featuring multiple views and displayed from various angles. The face is clearly visible. (It is a cute girl wearing a blue shirt and a white short skirt, in an anime style.)
括号部分为自定义内容
-
使用下来,比较喜欢第二个版本的提示词
a character sheet,white background, multiple views,from multiple angles, visible face,anime-style,(little loli:1.3), (child:1.2), (Girlish body type), (masterpiece), (best quality), Exquisite visuals, high-definition, (ultra detailed), finely detail, ((solo)), ((gawr gura)), (medium hair), (white Silver hair), (gradient Blue), (beautiful detailed eyes), Kawai, loveliness, off shoulder, looking at viewer, bare shoulders, standing, ((full body)),pale skin
↓
PS:大模型使用,可默认或者用F.1 niji或者其他
④ 引导、采样器、VAE编码
根据需求修改,默认如下:
步数有些是20,看效果
第一步的结果:
二、二次采样(放大+面部修复)
1、SD放大(理解版,不用改动工作流)
推荐放大模型:
动漫人物
写实人物
第一步设置参数的位置,如下:
替代参数,使用Impact_Packde的到基础束、从基础束v2(工作流中的原方法),如下:
左边的CLIP接双CLIP加载器的右侧(没有用到可以不连接)
正面条件接ControlNet应用右侧(没有用到可以不连接)
2、面部修复(理解版,不用改动工作流)
在第一步中补充参数:
原工作流中到细化束、CoreML细化约束器是放在节点框外部的
-
第二步的效果:
三、保存poses
接收SD细化+面部修复后的图像,通过图像缩放、图像裁剪,X、Y轴移动
四、表情编辑
接收第三步正面的图像,通过表情编辑器修改,如下:
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。