ComfyUI工作流详解:AI漫剧专业级画面生成方案

深入讲解ComfyUI在AI漫剧创作中的应用,包括安装配置、核心节点、角色一致性工作流、批量生成工作流,以及常用工作流模板推荐。

AI漫剧工作室2026-05-0219 分钟阅读

一、ComfyUI简介与优势

什么是ComfyUI

ComfyUI是一个开源的、基于节点的Stable Diffusion图形界面。与传统的WebUI(如Automatic1111)不同,ComfyUI采用节点式的工作方式,用户通过连接不同的功能节点来构建图像生成流程。

对于AI漫剧创作者来说,ComfyUI的核心价值在于:

优势说明
完全免费开源软件,无使用限制,无订阅费用
高度可定制节点式架构,可以精确控制每个生成环节
角色一致性通过LoRA、IP-Adapter等技术实现精确的角色一致性
批量生成内置批量处理能力,一次生成大量画面
本地部署数据不出本地,保护创作隐私
社区生态丰富的自定义节点和工作流模板
性能优化支持多种优化方案,生成速度快

ComfyUI vs 其他AI绘画工具

对比维度ComfyUI即梦AIMidjourneyWebUI (A1111)
费用免费(需硬件)免费额度付费订阅免费(需硬件)
角色一致性极强(LoRA+IP-Adapter)中等中等强(LoRA)
批量生成原生支持手动操作不支持插件支持
学习曲线陡峭简单简单中等
硬件要求高(需独立显卡)高(需独立显卡)
自定义程度极高
画风控制精确自动自动精确

[!IMPORTANT] ComfyUI需要一定的技术基础和硬件投入。如果你是完全没有技术背景的新手,建议先使用即梦AI等在线工具入门,等熟悉了AI绘画的基本概念后再转向ComfyUI。ComfyUI的学习曲线虽然陡峭,但一旦掌握,其生产效率和画面控制能力远超在线工具。


二、安装与配置

硬件要求

ComfyUI需要本地运行AI模型,对硬件有一定要求:

硬件最低要求推荐配置说明
显卡(NVIDIA)GTX 1060 6GBRTX 4060 8GB+必须是NVIDIA显卡
显存6GB8GB+显存越大,可用的模型越大
内存8GB16GB+系统内存
存储20GB可用空间50GB+ SSD存放模型和工作流
CPU4核8核+影响非GPU计算的速度

[!WARNING] ComfyUI不支持AMD显卡和Apple Silicon(M系列芯片)的GPU加速。如果你使用的是Mac,可以考虑使用Draw Things等替代工具。如果你使用的是AMD显卡,可以考虑使用DirectML版本,但性能和兼容性不如NVIDIA版本。

安装步骤

方法一:官方安装包(推荐新手)

  1. 前往ComfyUI官方GitHub页面下载最新版本
  2. 解压到目标目录
  3. 运行启动脚本:
    • Windows:双击 run_nvidia_gpu.bat
    • macOS:运行 run_macos.sh
  4. 等待启动完成,浏览器打开 http://127.0.0.1:8188

方法二:ComfyUI Desktop(最简单)

  1. 前往ComfyUI官网下载Desktop版本
  2. 安装并启动
  3. Desktop版本集成了Python环境和模型管理,开箱即用

方法三:手动安装(适合高级用户)

# 1. 克隆仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 2. 创建Python虚拟环境
python -m venv venv
source venv/bin/activate  # Linux/Mac
venv\Scripts\activate     # Windows

# 3. 安装依赖
pip install -r requirements.txt

# 4. 启动
python main.py

必装模型

安装ComfyUI后,需要下载基础模型才能开始使用:

模型类型推荐模型大小用途下载来源
基础大模型(Checkpoint)SDXL6.5GB基础画面生成Civitai / HuggingFace
基础大模型Stable Diffusion 1.54GB轻量级生成Civitai / HuggingFace
VAESDXL VAE300MB画面色彩优化随大模型附带
CLIPSDXL CLIP1.5GB文本理解随大模型附带

[!TIP] | 节点名称 | 功能 | 必需程度 | |---------|------|---------| | Load Checkpoint | 加载基础大模型 | 必需 | | CLIP Text Encode | 将提示词编码为模型可理解的格式 | 必需 | | KSampler | 核心采样器,控制生成过程 | 必需 | | VAE Decode | 将潜空间数据解码为可见图像 | 必需 | | Save Image | 保存生成的图像 | 必需 | | Load Image | 加载参考图像 | 常用 | | VAE Encode | 将图像编码为潜空间数据 | 常用 | | ControlNet Apply | 应用ControlNet控制 | 常用 | | IP-Adapter Apply | 应用IP-Adapter角色参考 | 常用 | | Lora Loader | 加载LoRA模型 | 常用 | | Preview Image | 预览中间结果 | 调试用 |

最简工作流搭建

一个最基础的ComfyUI工作流由以下节点组成:

Load Checkpoint → CLIP Text Encode (Positive) → KSampler → VAE Decode → Save Image
                → CLIP Text Encode (Negative) ↗
                → Empty Latent Image ↗

操作步骤:

  1. 拖入 Load Checkpoint 节点,选择一个基础模型
  2. Load Checkpoint 拖出连接线到两个 CLIP Text Encode 节点
  3. 一个 CLIP Text Encode 输入正面提示词,另一个输入负面提示词
  4. 添加 Empty Latent Image 节点,设置生成尺寸(如1024x1024)
  5. 将正面提示词、负面提示词和潜空间图像连接到 KSampler
  6. KSampler 连接到 VAE Decode
  7. VAE Decode 连接到 Save Image
  8. 点击 Queue Prompt 运行工作流

[!TIP] | 节点 | 推荐设置 | 说明 | |------|---------|------| | KSampler | sampler_name: dpmpp_2m, scheduler: karras | 画质和速度的最佳平衡 | | KSampler | steps: 20-30 | 步数越多画质越好,但速度越慢 | | KSampler | cfg: 7-8 | 控制提示词的遵循程度 | | Empty Latent Image | width/height: 1024x1024 (SDXL) | SDXL推荐1024x1024 | | Empty Latent Image | batch_size: 4-8 | 批量生成,提升效率 |


四、角色一致性工作流搭建

角色一致性的挑战

在AI漫剧创作中,角色一致性是最核心的技术挑战。同一角色在不同镜头、不同表情、不同角度下都需要保持外观一致。ComfyUI通过以下技术方案解决这个问题:

技术原理效果难度
LoRA微调模型学习角色特征中等
IP-Adapter使用参考图引导生成简单
ControlNet控制姿势和构图中等中等
Reference Only参考图像的风格和特征中等简单
组合方案LoRA + IP-Adapter + ControlNet极强高级

方案一:IP-Adapter角色一致性(推荐入门)

IP-Adapter是最容易上手且效果优秀的角色一致性方案。

所需节点:

  • Load Checkpoint
  • CLIP Text Encode (x2)
  • Load Image(加载角色参考图)
  • IP-Adapter Apply
  • KSampler
  • VAE Decode
  • Save Image

工作流连接:

Load Checkpoint → CLIP Text Encode (Positive) → IP-Adapter Apply → KSampler → VAE Decode → Save Image
                → CLIP Text Encode (Negative) ↗              ↗
                → Load Image (角色参考图) ────────────────↗
                → Empty Latent Image ────────────────────↗

关键参数设置:

参数推荐值说明
IP-Adapter weight0.6-0.8权重越高角色越像参考图,但灵活性降低
IP-Adapter start_at0.0从生成开始就应用
IP-Adapter end_at0.8-1.0在生成后期仍保持参考
正面提示词包含角色描述与参考图描述一致
采样步数25-30步数多有助于保持一致性

方案二:LoRA角色一致性(推荐进阶)

LoRA(Low-Rank Adaptation)是一种模型微调技术,通过训练一个小的附加模型来让基础大模型学会生成特定角色。

LoRA训练流程:

  1. 收集角色的参考图(15-30张,越多越好)
  2. 使用Kohya_ss等工具训练LoRA模型
  3. 将训练好的LoRA模型放入ComfyUI的loras目录
  4. 在工作流中使用Lora Loader节点加载

LoRA工作流节点:

Load Checkpoint → Lora Loader → CLIP Text Encode → KSampler → VAE Decode → Save Image
                                    ↗
                              Empty Latent Image

LoRA训练参数建议:

参数推荐值说明
训练图片数量15-30张覆盖不同角度和表情
训练步数1000-2000过多会过拟合
学习率1e-4标准学习率
网络维度(Dim)16-32维度越高效果越好,但文件越大
网络Alpha等于Dim标准设置

[!IMPORTANT] LoRA训练需要一定的技术基础和GPU资源。训练一个LoRA模型通常需要1-2小时(RTX 4060)。如果你不想自己训练,可以在Civitai等平台寻找现成的角色LoRA模型,或者使用IP-Adapter方案作为替代。

方案三:组合方案(推荐专业)

将LoRA、IP-Adapter和ControlNet组合使用,可以实现最强的角色一致性:

Load Checkpoint → Lora Loader → CLIP Text Encode → KSampler → VAE Decode → Save Image
                                       ↗                ↗
                                 IP-Adapter Apply   ControlNet Apply
                                       ↗                ↗
                                 Load Image (参考)   Load Image (姿势)

组合方案的优势:

  • LoRA保证角色的基础外观一致
  • IP-Adapter提供额外的参考图引导
  • ControlNet控制角色的姿势和构图
  • 三者协同工作,一致性效果最佳

五、批量生成工作流

为什么需要批量生成

AI漫剧每集通常需要15-30个分镜画面。如果逐个生成,效率极低。ComfyUI的批量生成能力可以一次生成多个画面,大幅提升效率。

批量生成方法一:Batch Size

最简单的批量生成方法是在 Empty Latent Image 节点中设置 batch_size

batch_size生成数量显存需求适用场景
11张基础测试和调试
44张2x日常使用
88张3-4x批量生成
1616张6-8x高显存显卡

批量生成方法二:提示词列表

使用 Primitive 节点或自定义节点,可以传入多个不同的提示词,每个提示词生成一张不同的画面:

所需额外节点:

  • Text ListPrompt Multiple 自定义节点
  • For LoopIterate 节点

这种方法适合生成分镜脚本中不同场景的画面。

批量生成方法三:从文件读取

使用 Load Text FileLoad Image Batch 节点,可以从文件中批量读取提示词或参考图:

  1. 将所有分镜的提示词保存为一个文本文件(每行一个提示词)
  2. 使用自定义节点逐行读取并生成
  3. 自动保存到指定目录

[!TIP] | 工作流名称 | 用途 | 特点 | 获取来源 | |---------|------|------|---------| | SDXL基础工作流 | 通用画面生成 | 简单易用,适合入门 | ComfyUI官方示例 | | IP-Adapter角色一致性 | 角色一致性生成 | 使用参考图保持角色一致 | ComfyUI GitHub | | LoRA角色训练+生成 | 自定义角色生成 | 训练专属角色LoRA | Kohya_ss文档 | | ControlNet姿势控制 | 角色姿势控制 | 精确控制角色动作 | ComfyUI官方示例 | | 图生图工作流 | 画面修改和优化 | 基于参考图生成新画面 | ComfyUI官方示例 | | 批量分镜生成 | 批量生成分镜画面 | 自动化批量处理 | 社区分享 | | 漫画分格工作流 | 漫画风格画面 | 生成漫画分格效果 | Civitai社区 | | 风格迁移工作流 | 统一画风 | 将不同画面统一为相同风格 | 社区分享 |

工作流安装方法

  1. 下载工作流JSON文件
  2. 在ComfyUI界面中点击 Load 按钮
  3. 选择下载的JSON文件
  4. 工作流会自动加载到画布上
  5. 根据需要修改模型路径和参数

[!NOTE] | 优化方向 | 具体方法 | 效果 | |---------|---------|------| | 降低分辨率 | 使用768x768而非1024x1024 | 显存需求降低40% | | 使用Turbo模型 | 使用SDXL Turbo等加速模型 | 生成速度提升4-8倍 | | 减少采样步数 | 从30步降到15-20步 | 速度提升50%,画质轻微下降 | | 使用Tiled VAE | 分块处理VAE解码 | 显存需求降低50% | | 启用xformers | 安装xformers优化库 | 速度提升20-30% | | 关闭预览 | 减少中间结果预览 | 减少显存占用 | | 使用低精度 | FP16而非FP32 | 显存需求降低50% |

速度优化

优化方法效果画质影响
SDXL Turbo模型4-8倍加速轻微下降
LCM采样器3-5倍加速轻微下降
减少步数到152倍加速轻微下降
使用TensorRT2-3倍加速无影响

[!WARNING] | 资源 | 名称 | 类型 | 说明 | |------|------|------|------| | 官方文档 | ComfyUI GitHub Wiki | 文档 | 最权威的参考 | | 视频教程 | ComfyUI官方YouTube频道 | 视频 | 官方教程和更新日志 | | 社区论坛 | ComfyUI Discord | 社区 | 最活跃的交流社区 | | 中文教程 | B站搜索"ComfyUI教程" | 视频 | 大量中文教程 | | 工作流分享 | Comfyworkflows.com | 网站 | 工作流模板分享平台 | | 节点市场 | ComfyUI Manager | 插件 | 一键安装自定义节点 | | 模型下载 | Civitai.com | 网站 | LoRA、Checkpoint模型 | | 中文社区 | 即梦社区/小红书 | 社区 | AI漫剧创作者交流 |

推荐学习路径

  1. 第一周:安装ComfyUI,搭建最简工作流,熟悉基本操作
  2. 第二周:学习IP-Adapter,实现基本的角色一致性
  3. 第三周:学习ControlNet,控制角色姿势和构图
  4. 第四周:尝试LoRA训练,创建自定义角色
  5. 第五周+:组合各种技术,搭建完整的AI漫剧画面生成工作流

[!TIP] ComfyUI的学习曲线确实陡峭,但不要被吓退。建议从最简单的工作流开始,每掌握一个新节点就实际使用它生成几张图片。通过"学一个、用一个"的方式,你可以在2-3周内掌握ComfyUI的核心功能。社区中有大量免费的工作流模板可以直接使用,不需要从零开始搭建。


八、总结

ComfyUI是AI漫剧专业创作者的必备工具。本教程全面讲解了ComfyUI在AI漫剧创作中的应用:

  • ComfyUI简介与优势:免费、可定制、角色一致性强
  • 安装与配置:硬件要求、安装方法、必装模型
  • 核心节点介绍:KSampler、VAE、CLIP等关键节点
  • 角色一致性方案:IP-Adapter(入门)、LoRA(进阶)、组合方案(专业)
  • 批量生成:Batch Size、提示词列表、文件读取三种方法
  • 工作流模板推荐:8个常用工作流及获取来源
  • 性能优化:显存优化和速度优化的具体方法
  • 学习资源:官方文档、社区论坛、中文教程等

[!IMPORTANT] ComfyUI是一个持续进化的工具,新的自定义节点和工作流方案不断涌现。建议关注ComfyUI的官方GitHub仓库和Discord社区,及时了解最新的功能和优化方案。同时,也要注意不要陷入"工具收集"的陷阱,掌握核心节点和几个实用的工作流就足够了,把更多精力放在内容创作上。

相关教程