CLIP Text Encode (Prompt) 是 ComfyUI 中最基础也是最关键的节点之一,用于将文本提示词(prompt)编码为可供模型理解的语义特征张量(conditioning)。
可以将其理解为:你与 AI 进行沟通的翻译官,把人类语言翻译成 AI 能理解的指令。
它依赖于 CLIP 模型,对输入的文字内容进行语义提取,作为后续图像生成流程的“创作指令”。
Load Checkpoint → CLIP 输出 │ ▼ CLIP Text Encode │ ▼ KSampler(positive / negative)
这个过程对图像质量、风格、主题控制至关重要。
在文生图、图生图、ControlNet、IPAdapter、动画等流程中,文本编码都是基础环节之一。
📌 端口与参数
📌 输入端口
🟡 clip
CLIP 模型输入
通常来自 Load Checkpoint 节点或 Load LoRA 节点,表示要使用哪个编码器对文本进行编码。
提示:
如果不连接此端口,ComfyUI 会尝试自动从当前主模型中推断 CLIP,但建议手动连接确保模型一致。
📌 参数
text
提示词输入框
你可以在此直接输入英文提示词(或经训练支持的其他语言)。
示例:
a futuristic city at night, neon lights, 4K, cinematic
支持多行文本输入:
masterpiece, best qualitya girl standing in the rain
支持 prompt 加权,比如:
"a cat:1.2, wearing glasses"
支持特定 tokent 使用,比如:
((best quality))
提示:
也可将其作为输入端口连接到带 STRING(text) 类型输出端口的节点,比如:
Deep Translator Text NodeArgos Translate CLIP Text Encode NodePreview Text Node
📌 输出端口
🟡 CONDITIONING
条件向量输出
输出编码后的提示词张量。可连接至:
KSampler 的 positive 或 negative 端口
FluxGuidance 进行引导强度调节
ControlNet 条件注入模块
💡 使用建议与说明
1、语言建议使用英文
目前大多数模型训练数据以英文为主,中文或非英语提示词可能效果较弱。
2、一般需同时使用两个 CLIP Text Encode 节点
正面提示词 → positive
负面提示词 → negative
使用 positive / negative 分别引导想要或者不想要的图像特征。
3、使用 Flux 模型时
但在 FLUX 基础模型中,很多版本(如 flux dev / schnell)并不需要反向提示词。
此时需要在 KSampler 节点中将 cfg 参数设置为 1.0,以避免 CFG 引导逻辑生效),而使用 FluxGuidance 节点来负责“正面提示词的引导力度”。
“点赞行美意,赞赏是鼓励”