CLIP Text Encode (Prompt)
CLIPTextEncodeFlux
在 ComfyUI 中对 token 支持长度是否相同的详细技术对比:
1、 CLIP Text Encode (Prompt)
通常来自:
ComfyUI 官方自带
CLIPTextEncode
节点。
特点:
✅ 使用 OpenAI CLIP 模型(ViT-L/14 等)
✅ 默认最大支持 77 tokens (固定超参数)
✅ 超过 77 tokens 时:
部分实现直接截断前 77 tokens(但不会提示)
部分 forked 节点在超长时直接报错(引发
Token indices sequence length ...
错误)
2、CLIPTextEncodeFlux
通常来自:
ComfyUI 扩展(如 FluxNodes、Advanced Conditioning、Flux conditioning patch)。
特点:
✅ 可能使用:
CLIP variants (ViT-G/14)
Flux 内部优化过的动态批量/动态 token 处理
⚠️ Token 支持长度取决于 Flux 节点实现:
部分 Flux 节点仍然 限制 77 tokens(以兼容 SD 模型原生结构)。
部分 Flux 节点支持 更长 tokens(如 128、256),用于 XL 模型或特殊 pipelines。
如果用于普通 SD 1.5/2.1 模型,依旧建议保持 ≤ 77 tokens,否则多余部分在实际推理时无效。
3、 实测差异总结
功能 | CLIP Text Encode (Prompt) | CLIPTextEncodeFlux |
---|---|---|
默认 token 限制 | 77 tokens (固定) | 77 / 可配置 / 可变 |
超长处理 | 截断或报错 | 截断 / 支持更长(取决实现) |
适用范围 | SD 1.5 / 2.1 / SDXL | Flux pipelines / 高级 workflows |
稳定性 | 高 | 高,但取决扩展版本 |
4、 是否需要使用更长 tokens?
SD 1.5 / 2.1 / SDXL 模型本身在推理时只使用前 77 tokens,即使 CLIPTextEncodeFlux 支持更多,也不会在推理中被使用。
仅在使用:
特殊大模型
Dreambooth/LoRA 训练前文本嵌入提取
高级控制条件
时,才考虑使用更长 tokens。
总结结论
它们可能对 token 支持长度不同:
CLIP Text Encode (Prompt) → 固定 77 tokens。
CLIPTextEncodeFlux → 取决于实现,可能支持 >77 tokens,但若推送给标准 SD 模型仍仅使用前 77 tokens。