ComfyUI核心节点详解:AI漫剧必备的工作流节点大全

系统讲解ComfyUI中AI漫剧创作必备的核心节点,包括KSampler、VAE、ControlNet、IP-Adapter、LoRA等节点的功能、参数配置和实战应用,帮助创作者构建高效的AI漫剧生成工作流。

AI漫剧工作室2026-04-0521 分钟阅读

一、ComfyUI节点体系概览

节点分类

ComfyUI的节点按照功能可以分为以下几大类:

ComfyUI节点体系
├── 模型加载节点(Loaders)
│   ├── Checkpoint Loader - 加载主模型
│   ├── LoRA Loader - 加载LoRA模型
│   ├── VAE Loader - 加载VAE模型
│   └── CLIP Vision Loader - 加载CLIP视觉模型
├── 条件节点(Conditioning)
│   ├── CLIP Text Encode - 文本编码
│   ├── Conditioning Combine - 条件合并
│   └── Conditioning Set Area - 区域设置
├── 采样节点(Sampling)
│   ├── KSampler - 核心采样器
│   ├── KSampler Advanced - 高级采样器
│   └── Sampler Custom - 自定义采样器
├── 潜空间节点(Latent)
│   ├── Empty Latent Image - 空白潜空间图像
│   ├── Latent Upscale - 潜空间放大
│   └── Latent Blend - 潜空间混合
├── 图像节点(Image)
│   ├── VAE Decode - VAE解码
│   ├── VAE Encode - VAE编码
│   ├── Load Image - 加载图像
│   └── Save Image - 保存图像
├── ControlNet节点
│   ├── Load ControlNet Model - 加载ControlNet模型
│   ├── Apply ControlNet - 应用ControlNet
│   └── ControlNet Preprocessor - 预处理器
├── IP-Adapter节点
│   ├── Load IP-Adapter - 加载IP-Adapter
│   ├── Apply IP-Adapter - 应用IP-Adapter
│   └── IP-Adapter FaceID - 人脸识别适配
└── 辅助节点(Utility)
    ├── Preview Image - 图像预览
    ├── Switch Node - 条件切换
    └── Reroute Node - 路由节点

二、模型加载节点

2.1 Checkpoint Loader(检查点加载器)

Checkpoint Loader是ComfyUI中最基础的节点,用于加载Stable Diffusion主模型。

输入参数:

参数说明推荐设置
ckpt_name模型文件名根据需求选择SD 1.5/SDXL/Flux模型

输出端口:

端口数据类型说明
MODELMODEL主模型,连接到KSampler
CLIPCLIP文本编码器,连接到CLIP Text Encode
VAEVAE变分自编码器,连接到VAE Decode

AI漫剧中的模型选择建议:

模型类型适用场景推荐模型
SD 1.5二次元/漫画风格MeinaMix、Anything V5、Counterfeit
SDXL写实/半写实风格Juggernaut XL、DreamShaper XL
SD 3.5多风格通用Stable Diffusion 3.5 Medium/Large
Flux高质量写实Flux.1 Dev/Schnell

[!TIP] 对于AI漫剧创作,建议准备2-3个不同风格的Checkpoint模型。一个用于角色设计(写实风格),一个用于场景生成(风景/建筑),一个用于特殊效果(漫画线条/水彩等)。

2.2 LoRA Loader(LoRA加载器)

LoRA(Low-Rank Adaptation)是一种轻量化的模型微调方法,可以在不改变主模型的情况下调整生成风格或添加特定元素。

输入参数:

参数说明推荐范围
lora_nameLoRA文件名根据需求选择
strength_model模型强度0.3-1.0
strength_clipCLIP强度0.3-1.0

AI漫剧常用LoRA类型:

LoRA类型用途强度建议
角色LoRA固定特定角色外观0.6-0.8
画风LoRA统一画面风格0.4-0.7
服装LoRA添加特定服装0.5-0.8
场景LoRA添加特定场景元素0.3-0.6
线稿LoRA增强线条感0.4-0.7
上色LoRA特定上色风格0.5-0.8

多LoRA叠加技巧:

在AI漫剧创作中,经常需要同时使用多个LoRA。
注意以下原则:

1. 总强度不宜超过1.5(所有LoRA强度之和)
2. 角色LoRA优先级最高,强度最大
3. 画风LoRA强度适中,避免过度影响角色特征
4. 使用LoRA Stack节点管理多个LoRA

2.3 VAE Loader(VAE加载器)

VAE(Variational Autoencoder)负责在潜空间和像素空间之间进行转换,直接影响生成图像的色彩和细节表现。

常用VAE推荐:

VAE名称特点适用场景
sdxl_vae.safetensorsSDXL默认VAESDXL模型通用
vae-ft-mse-840000色彩鲜艳写实风格
kl-f8-anime2动画优化二次元风格
vae-ft-ema细节丰富高质量生成

[!WARNING] 不同模型可能需要不同的VAE才能获得最佳效果。SDXL模型通常自带VAE,不需要额外加载。SD 1.5模型建议使用vae-ft-mse-840000获得更好的色彩表现。如果生成的图片颜色发灰或过饱和,尝试更换VAE。

三、条件节点

3.1 CLIP Text Encode(CLIP文本编码器)

CLIP Text Encode将文本提示词转换为模型可以理解的条件向量,是控制生成内容的核心节点。

输入参数:

参数说明示例
text提示词文本"1girl, long black hair, school uniform, smiling"
clipCLIP模型从Checkpoint Loader输出

AI漫剧提示词编写技巧:

正向提示词结构(从重要到次要):

1. 角色描述(最重要)
   masterpiece, best quality, 1girl, character_name,
   age, hair_style, hair_color, eye_color,

2. 服装和配饰
   outfit_description, accessories,

3. 动作和表情
   pose, expression, gesture,

4. 场景和环境
   background, environment, lighting, weather,

5. 画风和镜头
   art_style, camera_angle, composition,

6. 质量标签
   detailed, highres, 8k, sharp_focus
反向提示词示例:

(worst quality, low quality:1.4), deformed, bad anatomy,
bad hands, missing fingers, extra digit, fewer digits,
cropped, mutation, poorly drawn face, poorly drawn hands,
mutation, deformed, blurry, out of focus, long neck,
long body, disgusting, poorly drawn, mutilated, mangled,
lowres, bad anatomy, bad proportions, watermark, text

3.2 Conditioning Combine(条件合并)

当使用多个LoRA或需要合并多个条件时,使用此节点。

典型用法:

CLIP Text Encode (角色描述)
        ↓
Conditioning Combine ← CLIP Text Encode (场景描述)
        ↓
   KSampler (positive)

3.3 Conditioning Set Area(区域条件设置)

在AI漫剧中,有时需要指定条件只作用于图像的特定区域。

参数说明
width区域宽度
height区域高度
x区域X坐标
y区域Y坐标
strength条件强度

四、采样节点

4.1 KSampler(核心采样器)

KSampler是ComfyUI中最核心的节点,负责实际的图像生成过程。理解KSampler的各个参数,是掌握ComfyUI的关键。

完整参数说明:

参数说明推荐值影响范围
seed随机种子随机/固定生成结果的随机性
steps采样步数20-30生成质量和速度
cfg引导系数5-8提示词遵循度
sampler_name采样器名称euler_ancestral采样算法
scheduler调度器normal步进策略
denoise去噪强度0.7-1.0变化程度
model模型从Loader获取-
positive正向条件从CLIP Encode获取-
negative反向条件从CLIP Encode获取-
latent_image潜空间图像从Empty Latent获取-

4.2 采样器选择指南

不同采样器有不同的特点,适合不同的创作场景:

采样器速度质量创意性适用场景
euler快速预览
euler_ancestral创意探索
dpmpp_2m通用推荐
dpmpp_2m_sde很高高质量生成
dpmpp_3m_sde很高精细控制
ddimimg2img
uni_pc平衡选择

AI漫剧推荐采样器配置:

# 角色设计(需要高质量和一致性)
sampler: dpmpp_2m_sde
scheduler: karras
steps: 30
cfg: 7

# 场景生成(需要创意性和多样性)
sampler: euler_ancestral
scheduler: normal
steps: 25
cfg: 6

# 快速预览(需要速度)
sampler: euler
scheduler: normal
steps: 15
cfg: 5

# 精细调整(img2img/重绘)
sampler: ddim
scheduler: normal
steps: 20
cfg: 5

4.3 KSampler Advanced(高级采样器)

KSampler Advanced在基础KSampler上增加了更多控制选项:

额外参数说明
add_noise是否添加噪声(关闭可实现零噪声生成)
noise_seed独立的噪声种子
start_at_step从指定步数开始采样
end_at_step在指定步数结束采样
return_with_leftover_noise是否保留剩余噪声

高级用法 - 渐进式生成:

# 第一阶段:生成基础构图
KSampler Advanced (steps: 10, start_at: 0, end_at: 10, add_noise: yes)
        ↓
# 第二阶段:添加细节
KSampler Advanced (steps: 10, start_at: 10, end_at: 20, add_noise: no)
        ↓
# 第三阶段:精细调整
KSampler Advanced (steps: 10, start_at: 20, end_at: 30, add_noise: no)

五、ControlNet节点

5.1 ControlNet概述

ControlNet是AI漫剧创作中最关键的技术之一。它允许你通过参考图像(如姿态图、线稿、深度图等)来精确控制生成图像的构图和姿态,是实现角色一致性和场景连贯性的核心工具。

5.2 常用ControlNet类型

ControlNet类型功能AI漫剧应用
OpenPose人体姿态控制角色动作一致性
Canny边缘检测场景轮廓控制
Depth深度图空间关系控制
Lineart线稿提取漫画线条风格
SoftEdge柔和边缘自然轮廓保持
Segmentation语义分割区域颜色控制
Tile分块控制超分辨率放大
Inpainting局部重绘角色面部修复

5.3 ControlNet工作流配置

基础ControlNet工作流:

Load Image(参考图)
      ↓
ControlNet Preprocessor(预处理)
      ↓
Load ControlNet Model(加载模型)
      ↓
Apply ControlNet(应用控制)
      ↓
KSampler(采样生成)

OpenPose角色姿态控制:

# AI漫剧中最常用的ControlNet配置
模型: controlnet-openpose-sdxl-1.0
预处理器: dwpose_openpose_full
强度: 0.7-0.9
适用场景: 控制角色在不同分镜中的姿态一致性

Canny场景轮廓控制:

# 用于保持场景在不同分镜中的轮廓一致
模型: controlnet-canny-sdxl-1.0
预处理器: canny
参数:
  low_threshold: 0.1
  high_threshold: 0.2
强度: 0.5-0.7
适用场景: 场景切换时的构图保持

5.4 多ControlNet组合

在AI漫剧创作中,经常需要同时使用多个ControlNet来精确控制生成结果:

                    ┌→ Apply ControlNet 1 (OpenPose, strength: 0.8)
                    │
CLIP Text Encode → ┼→ Apply ControlNet 2 (Canny, strength: 0.5)
                    │
                    └→ Apply ControlNet 3 (Depth, strength: 0.3)
                                    ↓
                              KSampler

[!TIP] 多ControlNet叠加时,注意控制总强度。建议将最重要的ControlNet(如OpenPose)强度设为0.7-0.9,辅助ControlNet(如Canny、Depth)强度设为0.3-0.5。总强度超过2.0可能导致生成结果过于僵硬。

六、IP-Adapter节点

6.1 IP-Adapter概述

IP-Adapter是一种图像提示适配器,可以将参考图像的风格、角色、色彩等特征注入到生成过程中。对于AI漫剧创作,IP-Adapter是实现角色一致性的重要工具。

6.2 IP-Adapter类型

类型功能适用场景
IP-Adapter Plus通用图像适配风格迁移、角色参考
IP-Adapter FaceID人脸识别适配角色面部一致性
IP-Adapter FaceID Plus人脸+通用适配角色整体一致性
IP-Adapter Full全量适配高保真参考
IP-Adapter Plus FaceID V2V2人脸适配改进的人脸一致性

6.3 IP-Adapter工作流配置

基础IP-Adapter工作流:

Load Image(角色参考图)
      ↓
CLIP Vision Encode(视觉编码)
      ↓
Load IP-Adapter Model(加载IP-Adapter)
      ↓
Apply IP-Adapter(应用适配)
      ↓
KSampler(采样生成)

FaceID角色一致性工作流:

# AI漫剧角色一致性核心配置
IP-Adapter模型: ip-adapter-plus_faceid_v2_sdxl
CLIP Vision: CLIP-ViT-H-14-laion2B-s32B-b79K
强度: 0.7-0.85
权重类型: linear
开始步数: 0
结束步数: 100%

# 配合使用:
# 1. 准备一张高质量的角色正面照作为参考
# 2. 使用FaceID提取面部特征
# 3. 在不同分镜中保持同一参考图
# 4. 配合LoRA进一步增强一致性

6.4 IP-Adapter + ControlNet组合

这是AI漫剧创作中最强大的组合之一:

角色参考图 → IP-Adapter FaceID(保持角色面部一致)
      +
姿态参考图 → ControlNet OpenPose(控制角色姿态)
      +
场景描述 → CLIP Text Encode(定义场景内容)
      ↓
KSampler(生成最终图像)

[!TIP] IP-Adapter和ControlNet的组合可以实现"换装不换脸"的效果。使用FaceID保持角色面部,使用OpenPose控制姿态,使用CLIP Text Encode描述不同的服装和场景。这是AI漫剧制作中最核心的技术组合。

七、潜空间和图像节点

7.1 Empty Latent Image(空白潜空间图像)

设置生成图像的尺寸和批次。

参数说明推荐值
width宽度1024/832/768
height高度1024/1216/1536
batch_size批次大小1-4

AI漫剧常用分辨率:

比例分辨率用途
1:11024x1024角色设计、封面
3:4832x1216竖版漫剧(推荐)
2:3768x1152竖版漫剧
16:91344x768横版场景
4:31152x896通用场景

7.2 VAE Decode / VAE Encode

VAE Decode将潜空间图像转换为可见的像素图像,VAE Encode则执行相反的操作。

典型用法:

# 文生图(txt2img)
KSampler → VAE Decode → Save Image

# 图生图(img2img)
Load Image → VAE Encode → KSampler → VAE Decode → Save Image

# 局部重绘(inpainting)
Load Image → VAE Encode (for Inpainting) → KSampler → VAE Decode → Save Image

7.3 Latent Upscale(潜空间放大)

在不损失质量的前提下放大图像。

放大方法说明推荐场景
nearest-exact最近邻像素风格
bilinear双线性通用
bicubic双三次高质量
lanczos兰索斯最高质量

八、AI漫剧完整工作流示例

8.1 角色设计工作流

工作流名称:AI漫剧角色设计
用途:生成高质量的角色设定图

节点连接:
1. Checkpoint Loader (Juggernaut XL)
   ├── MODEL → LoRA Loader → KSampler
   ├── CLIP → CLIP Text Encode (正向)
   └── VAE → VAE Decode

2. CLIP Text Encode (正向)
   "masterpiece, best quality, 1girl, 25 years old,
    long black hair, brown eyes, wearing white dress,
    gentle smile, standing pose, full body,
    simple white background, studio lighting"

3. CLIP Text Encode (反向)
   "(worst quality:1.4), deformed, bad anatomy,
    bad hands, missing fingers, blurry"

4. LoRA Loader
   模型: 角色风格LoRA
   强度: 0.6

5. Empty Latent Image
   尺寸: 832 x 1216 (3:4竖版)

6. KSampler
   sampler: dpmpp_2m_sde
   scheduler: karras
   steps: 30
   cfg: 7
   denoise: 1.0

7. VAE Decode → Save Image

8.2 分镜生成工作流(带角色一致性)

工作流名称:AI漫剧分镜生成(角色一致性)
用途:保持角色外观一致的分镜批量生成

节点连接:
1. Checkpoint Loader (SDXL模型)
2. LoRA Loader (角色LoRA, strength: 0.7)
3. IP-Adapter FaceID (角色参考图, strength: 0.8)
4. ControlNet OpenPose (姿态参考, strength: 0.7)
5. CLIP Text Encode (场景描述)
6. Empty Latent Image (832 x 1216)
7. KSampler (dpmpp_2m_sde, karras, 30步, cfg: 7)
8. VAE Decode → Save Image

关键配置:
- IP-Adapter使用FaceID模型,保持角色面部一致
- ControlNet使用OpenPose,控制角色姿态
- LoRA进一步增强角色特征
- CLIP Text Encode描述场景和服装变化

8.3 场景生成工作流

工作流名称:AI漫剧场景生成
用途:生成高质量的背景场景

节点连接:
1. Checkpoint Loader (风景专用模型)
2. CLIP Text Encode (场景描述)
3. ControlNet Depth/Canny (构图参考, strength: 0.4)
4. Empty Latent Image (1344 x 768, 16:9横版)
5. KSampler (euler_ancestral, normal, 25步, cfg: 6)
6. VAE Decode → Save Image

提示词示例:
"anime style cityscape, night scene, neon lights,
 tall buildings, rain, wet streets, reflections,
 cinematic lighting, wide angle shot, detailed background,
 no humans"

九、节点优化技巧

9.1 性能优化

减少采样步数:

使用LCM(Latent Consistency Models)可以大幅减少采样步数:

# LCM加速配置
LCM LoRA: lcm-lora-sdxl
采样器: lcm
步数: 4-8
CFG: 1.0-2.0

# 注意:需要安装LCM LoRA模型
# 下载地址:https://huggingface.co/latent-consistency/lcm-lora-sdxl

使用TensorRT加速:

安装ComfyUI-TensorRT插件后,可以将模型编译为TensorRT引擎,显著提升推理速度(通常2-5倍加速)。

9.2 质量优化

Hi-Res Fix(高分辨率修复):

# 两阶段生成
第一阶段:低分辨率生成
Empty Latent Image (512 x 768)
KSampler (20步) → VAE Decode

第二阶段:高分辨率放大
Latent Upscale (1024 x 1536)
KSampler (15步, denoise: 0.3) → VAE Decode

FreeU增强细节:

# 使用FreeU节点增强生成质量
# 安装ComfyUI-FreeU插件
# 在KSampler前添加FreeU节点
# 参数:
#   backbone_scale: 1.2
#   skip_scale: 0.9

9.3 批量生成技巧

# 使用batch_size参数批量生成
Empty Latent Image:
  width: 832
  height: 1216
  batch_size: 4  # 一次生成4张

# 配合不同的seed生成多个变体
# 使用Primitive节点控制seed
# seed: random → 每次生成不同结果
# seed: fixed → 每次生成相同结果

十、总结

AI漫剧核心节点速查表

节点优先级用途
Checkpoint Loader必需加载主模型
CLIP Text Encode必需文本提示词编码
KSampler必需图像采样生成
VAE Decode必需潜空间解码
Save Image必需保存生成图像
Empty Latent Image必需设置画布尺寸
LoRA Loader强烈推荐风格/角色微调
ControlNet Apply强烈推荐姿态/构图控制
IP-Adapter Apply强烈推荐角色一致性
Load Image推荐加载参考图像
Latent Upscale推荐高分辨率放大
ComfyUI-Manager必需插件管理

[!TIP] 掌握ComfyUI节点的关键在于实践。建议从最简单的文生图工作流开始,每次只添加一个新节点,理解其作用后再继续添加。不要试图一次性构建复杂的工作流。当基础工作流稳定后,再逐步引入ControlNet、IP-Adapter等高级节点。保存每个阶段的工作流,方便回溯和学习。

相关教程