音画互动、AI Coser #ComfyUI社群精华周报-4月第3周

欢迎加入ComfyUI中文爱好者讨论 https://www.mixcomfy.com

亲爱的开发者和设计师们,现在是时候加入我们,一起探索全新的创作方式了!作为一款备受开发者和设计师喜爱的强大SD UI 框架,ComfyUI 一直以来都致力于为用户提供出色的体验。而现在,我们将为您带来 ComfyUI 系统教程,为您提供更加便捷和全面的社群学习资源。

加入ComfyUI动画知识库星球 https://t.zsxq.com/18K5GqOd1

感谢 @WritterGPT ML2627 的记录。


分享者 / Rui

总结YouTube视频的gpts

c117e5e04a8bb169a9352cc402311f15.png

可以针对多语言的长视频进行摘要处理。原理是取到Youtube的视频字幕,然后喂给GPT。也可以自己通过 MixCopilot 实现一个 :

20d98a72b0570f673b50b3fb9ee87e87.png

https://chat.openai.com/g/g-Dfo2YQk0Y-noyoutube-video-summarizer


分享者 / 葫芦娃

LayerStyle

b7f53fea6f914a57fb171cb5b9ff3c25.png

LayerStyle节点更新,CreateGradientMask增加center选项,可输出四周往中心的渐变,改善裁剪回帖边缘。新增AutoBrightiness,可自动调整过暗或过亮的图片到适中的亮度,支持遮罩输入仅参考遮罩部分的亮度数据。

https://github.com/chflame163/ComfyUI_LayerStyle


分享者 / Rui

midreal.ai 绘本

022adf6e78a819a847f04be8354f2d84.png

一个用AI做绘本故事的网站,给一点提示自动帮你写故事,配图。模型风格还不错。

好玩的是,你可以看别人的故事,不满意了接着他的开头改一个自己的版本。

https://midreal.ai


分享者 / Zho

CosXL 和 CosXL-Edit 模型

455110ff615f5216930e5a0419206b95.png

Stability AI 在 Hugging Face 上发布了 CosXL 和 CosXL-Edit 模型:CosXL 与 Playground v2.5 类似,也用上了 EDM,可以实现 PG2.5 提到的鲜艳色彩和高对比度图像。

Edit 模型属于 InstructPix2Pix 模型,用于实现提示词+图像精确编辑

模型(仅研究):https://huggingface.co/stabilityai/cosxl

https://comfyanonymous.github.io/ComfyUI_examples/edit_models/


分享者 / 海辛

AI Coser

e30e6aa4573c078f13d5c6b623e39960.png

这是一个针对《我爱女主的选择》角色周启洛的AI Coser工作流程。它使用了多个模型和自定义节点来生成AI角色扮演图片。此项目是一个粉丝作品,不得用于商业目的。

"即使对于周启洛来说,不是所有情况都能自动生成最佳结果,请根据需要调整参数。"

"默认的宽高比是800*1216,如果上传了不同风格的卡片,请在图像大小调整节点中进行更改。"

https://openart.ai/workflows/UsWOVtezOZeNnzVljTf7

911f1e2b1f5edac64033375a4026bec6.jpeg

入群备注:ComfyUI


分享者 / Zho

艺术风格可视化

58df2fc1d74ed1e87ed3a3d31e0812ca.png

新出的 CosXL-Edit 模型非常适合风格迁移!做了一版艺术风格可视化的工作流:

CosXL-Edit 正好可以与我之前做的提示词可视化(ArtGallery)结合起来,方便大家直观的选择和自由组合风格,再也不用担心不懂风格了!工作流使用了 Fast Bypasser,可以对艺术家、流派和风格任意组合,尽情发挥创意吧!

使用插件:

1)ArtGallery:https://github.com/ZHO-ZHO-ZHO/ComfyUI-ArtGallery

2)Bypasser + Switch:https://github.com/rgthree/rgthree-comfy

3)Text Concat(可用任何文字连接节点替代):https://github.com/ZHO-ZHO-ZHO/ComfyUI-Gemini

https://github.com/ZHO-ZHO-ZHO/ComfyUI-Workflows-ZHO


分享者 / PM熊叔

ComfyUI 音频动画

4e2ef6132c3bb5a7b2f09c97868a80fe.gif

这个工作流是为了实现音频反应的效果而设计的。通过在ComfyUI中玩弄AudioScheduler自定义节点的工作流,作者试图实现音频反应的效果,并希望有更多ComfyUI专家能够参与进来,创造出令人惊艳的音频反应式的ComfyUI节点和工作流。

欢迎加入我们的社群,一起交流分享!🎵🎨✨

Join our community and let's create amazing audio-reactive ComfyUI nodes and workflows together! 🎵🎨✨

工作流程:https://openart.ai/workflows/dyx1msfMUgNxUAFEJ6nV

音频调度程序自定义节点:https://github.com/a1lazydog/ComfyUI-AudioScheduler

1670b6acd01dd3e779ba1012147d4f41.png

加入社群

更多详见:

https://ywukcp2ygto.feishu.cn/wiki/ZoGUw23BVilkZnkrFTRcQn23nQg?from=from_copylink

### 使用 Stable Diffusion 进行服装生成与调整 #### 模型选择与准备 为了实现高质量的服装生成,建议使用经过特定领域训练的大规模预训练模型。这些模型能够更好地理解时尚元素并生成更真实的图像[^4]。 #### 参数设定 当利用 Stable Diffusion 创建服装设计时,几个关键参数会影响最终结果的质量: - **Denoising Strength (降噪强度)**:此值决定了原有图像保留多少特征以及新生成部分的比例。较低数值会保持更多原始细节;较高则倾向于创造全新外观。 - **Sampling Steps (采样步数)**:增加该数量通常能提高输出精度,但也可能延长处理时间。对于复杂图案或精细纹理尤其重要[^1]。 - **Guidance Scale (指导比例/提示词权重)**:控制着输入文本描述对生成过程的影响程度。适当增大可使成品更加贴近预期目标,不过过高的设置可能导致不自然的结果[^2]。 #### 提示工程(Prompt Engineering) 精心构建的提示语句有助于获得理想中的服饰样式。具体来说: - 描述应尽可能详尽,包括颜色、材质、风格等方面; - 可加入一些限定条件来约束创作范围,比如“一件适合夏季穿着的连衣裙”。 ```python prompt = "A summer dress with floral patterns, light blue color and cotton material" ``` #### 微调与迭代改进 初次尝试未必能达到满意效果,因此需要反复试验不同的组合直至找到最佳实践方案。记录每次变动及其对应成果可以帮助积累宝贵的经验教训[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值