ComfyUI安装与配置指南:Windows/Mac/Linux全平台部署教程

详细讲解ComfyUI在Windows、macOS和Linux三大平台上的安装与配置方法,包括Python环境配置、依赖安装、插件管理、模型部署等完整流程,帮助AI漫剧创作者快速搭建AI绘画工作环境。

AI漫剧工作室2026-04-0520 分钟阅读

一、ComfyUI简介

什么是ComfyUI

ComfyUI是一款基于节点的Stable Diffusion图形用户界面,由comfyanonymous开发并开源。与传统的Stable Diffusion WebUI(AUTOMATIC1111)不同,ComfyUI采用节点式工作流设计,用户通过连接不同功能的节点来构建图像生成流程。

ComfyUI的核心优势:

  • 节点式工作流:可视化编程,灵活组合各种功能模块
  • 高度可定制:500+自定义节点插件,功能无限扩展
  • 性能优秀:内存管理高效,支持大模型和复杂工作流
  • 工作流可复用:保存和分享工作流,一键复现生成效果
  • API支持:完善的API接口,支持自动化批量生成

系统要求

在安装ComfyUI之前,请确认你的系统满足以下最低要求:

组件最低要求推荐配置
操作系统Windows 10 / macOS 12 / Ubuntu 20.04Windows 11 / macOS 14 / Ubuntu 22.04
GPUNVIDIA GTX 1060 6GBNVIDIA RTX 4070 Ti / RTX 4090
显存6GB12GB+
内存8GB16GB+
硬盘20GB可用空间100GB+ SSD
Python3.103.10-3.12

[!WARNING] ComfyUI目前主要支持NVIDIA显卡。AMD显卡用户需要使用ROCm版本,配置较为复杂。Mac用户可以使用MPS加速(Apple Silicon),但性能和兼容性不如NVIDIA GPU。如果你使用AMD显卡或Intel显卡,建议使用云端GPU服务。

二、Windows平台安装

2.1 方法一:官方便携版安装(推荐新手)

ComfyUI官方提供了Windows便携版,内置了所有依赖,无需手动配置Python环境。

步骤1:下载ComfyUI

# 访问ComfyUI官方GitHub发布页面
# https://github.com/comfyanonymous/ComfyUI/releases

# 下载最新的Windows便携版
# 文件名类似:ComfyUI_windows_portable.zip

步骤2:解压并运行

# 1. 将下载的zip文件解压到目标目录
#    建议解压到D盘或E盘,避免C盘空间不足
#    例如:D:\ComfyUI\

# 2. 进入解压后的目录
cd D:\ComfyUI

# 3. 运行启动脚本
#    双击 run_nvidia_gpu.bat(NVIDIA显卡用户)
#    或双击 run_cpu.bat(仅CPU运行,速度极慢)

步骤3:等待初始化

首次启动时,ComfyUI会自动下载必要的依赖文件(PyTorch等),这可能需要几分钟到十几分钟,取决于网络速度。

正在下载依赖...
Installing torch...
Installing torchvision...
Installing transformers...
...
ComfyUI已启动!
请在浏览器中打开: http://127.0.0.1:8188

[!TIP] 如果下载速度很慢,可以设置国内镜像源。在 ComfyUI\update\ 目录下找到 comfyui.bat,在开头添加以下环境变量:

set PIP_INDEX_URL=https://pypi.tuna.tsinghua.edu.cn/simple
set TORCH_INDEX_URL=https://download.pytorch.org/whl/cu121

2.2 方法二:Git克隆安装(推荐进阶用户)

如果你熟悉命令行操作,推荐使用Git克隆方式安装,方便后续更新。

步骤1:安装前置软件

# 1. 安装Git
# 下载地址:https://git-scm.com/download/win

# 2. 安装Python 3.10
# 下载地址:https://www.python.org/downloads/
# 安装时勾选 "Add Python to PATH"

# 3. 安装NVIDIA CUDA Toolkit(如果尚未安装)
# 下载地址:https://developer.nvidia.com/cuda-downloads
# 推荐 CUDA 12.1 或更高版本

步骤2:克隆ComfyUI仓库

# 打开命令提示符(CMD)或PowerShell

# 克隆ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI.git

# 进入目录
cd ComfyUI

# 创建并激活虚拟环境
python -m venv venv
venv\Scripts\activate

# 安装依赖
pip install -r requirements.txt

步骤3:启动ComfyUI

# 确保在虚拟环境中
venv\Scripts\activate

# 启动ComfyUI
python main.py

# 或指定监听地址和端口
python main.py --listen 0.0.0.0 --port 8188

2.3 方法三:使用整合包

国内社区提供了多个ComfyUI整合包,内置了常用插件和模型,适合不想折腾的用户。

秋叶ComfyUI整合包:

  • 特点:内置ComfyUI-Manager、常用节点、中文界面
  • 下载:在B站搜索"秋叶 ComfyUI"找到最新下载链接
  • 优势:一键安装,开箱即用
  • 注意:更新可能不如官方版本及时

SD整合包中的ComfyUI:

  • 许多SD WebUI整合包也包含了ComfyUI
  • 如"LiblibAI"等平台提供的整合包
  • 适合已经使用SD WebUI的用户

三、macOS平台安装

3.1 Apple Silicon(M1/M2/M3/M4)安装

Mac的Apple Silicon芯片支持MPS(Metal Performance Shaders)加速,可以在ComfyUI中使用GPU加速。

步骤1:安装Homebrew和Python

# 安装Homebrew(如果尚未安装)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# 安装Python 3.10
brew install [email protected]

# 验证安装
python3.10 --version

步骤2:克隆并安装ComfyUI

# 克隆ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 创建虚拟环境
python3.10 -m venv venv
source venv/bin/activate

# 安装依赖
pip install -r requirements.txt

# 安装PyTorch MPS版本
pip install torch torchvision torchaudio

步骤3:启动ComfyUI

# 激活虚拟环境
source venv/bin/activate

# 使用MPS加速启动
python main.py --device mps

# 浏览器打开 http://127.0.0.1:8188

[!WARNING] macOS上的ComfyUI性能不如Windows上的NVIDIA GPU。MPS加速对部分操作不支持,某些节点可能无法正常工作。如果遇到问题,可以尝试使用CPU模式运行(python main.py --device cpu),但速度会非常慢。对于AI漫剧的批量生成任务,建议Mac用户使用云端GPU服务。

3.2 Intel Mac安装

Intel Mac的安装过程与Apple Silicon类似,但不支持MPS加速,只能使用CPU运行。

# 安装Python
brew install [email protected]

# 克隆并安装
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
python3.10 -m venv venv
source venv/bin/activate
pip install -r requirements.txt

# CPU模式启动(Intel Mac没有GPU加速)
python main.py --device cpu

[!INFO] Intel Mac运行ComfyUI的速度非常慢,生成一张SDXL图片可能需要几分钟甚至更长时间。强烈建议Intel Mac用户使用云端GPU服务(如AutoDL、RunPod)进行AI绘画工作。

四、Linux平台安装

4.1 Ubuntu/Debian安装

步骤1:安装系统依赖

# 更新系统
sudo apt update && sudo apt upgrade -y

# 安装基础依赖
sudo apt install -y git python3 python3-venv python3-pip \
    libgl1 libglib2.0-0 libsm6 libxext6 libxrender-dev

# 安装NVIDIA驱动(如果尚未安装)
sudo apt install -y nvidia-driver-535
# 或安装最新版本
sudo ubuntu-drivers autoinstall

# 验证GPU
nvidia-smi

步骤2:安装CUDA Toolkit

# 安装CUDA 12.1
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
sudo dpkg -i cuda-keyring_1.1-1_all.deb
sudo apt update
sudo apt install -y cuda-toolkit-12-1

# 配置环境变量
echo 'export PATH=/usr/local/cuda-12.1/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

# 验证CUDA
nvcc --version

步骤3:安装ComfyUI

# 克隆ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 创建虚拟环境
python3 -m venv venv
source venv/bin/activate

# 安装PyTorch(CUDA 12.1版本)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

# 安装ComfyUI依赖
pip install -r requirements.txt

步骤4:启动ComfyUI

# 启动
source venv/bin/activate
python main.py --listen 0.0.0.0 --port 8188

# 后台运行(使用nohup)
nohup python main.py --listen 0.0.0.0 --port 8188 > comfyui.log 2>&1 &

# 或使用screen/tmux
screen -S comfyui
python main.py --listen 0.0.0.0 --port 8188
# 按 Ctrl+A, D 分离会话

4.2 Docker安装(推荐服务器部署)

Docker安装是最简洁的部署方式,特别适合服务器和云平台。

步骤1:安装Docker

# Ubuntu/Debian
sudo apt install -y docker.io docker-compose
sudo systemctl start docker
sudo systemctl enable docker

# 将当前用户加入docker组
sudo usermod -aG docker $USER
# 重新登录后生效

步骤2:使用ComfyUI Docker镜像

# 拉取ComfyUI官方Docker镜像
docker pull ghcr.io/ai-dock/comfyui:latest

# 运行ComfyUI容器
docker run -d \
    --name comfyui \
    --gpus all \
    -p 8188:8188 \
    -v /path/to/models:/app/ComfyUI/models \
    -v /path/to/output:/app/ComfyUI/output \
    ghcr.io/ai-dock/comfyui:latest

# 查看运行状态
docker ps

# 查看日志
docker logs comfyui

使用Docker Compose部署:

# docker-compose.yml
version: '3.8'

services:
  comfyui:
    image: ghcr.io/ai-dock/comfyui:latest
    container_name: comfyui
    ports:
      - "8188:8188"
    volumes:
      - ./models:/app/ComfyUI/models
      - ./output:/app/ComfyUI/output
      - ./input:/app/ComfyUI/input
      - ./custom_nodes:/app/ComfyUI/custom_nodes
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: all
              capabilities: [gpu]
    restart: unless-stopped
# 启动
docker-compose up -d

# 停止
docker-compose down

# 查看日志
docker-compose logs -f

五、插件管理

5.1 ComfyUI-Manager(必备插件)

ComfyUI-Manager是ComfyUI最重要的插件,提供了插件市场、一键安装、工作流管理等核心功能。

安装ComfyUI-Manager:

# 进入ComfyUI目录
cd ComfyUI

# 克隆ComfyUI-Manager
cd custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
cd ..

# 重启ComfyUI

安装完成后,在ComfyUI界面中会出现"Manager"按钮,提供以下功能:

  • Install Missing Custom Nodes:自动安装工作流中缺失的节点
  • Install Custom Nodes:浏览和安装社区插件
  • Update All:一键更新所有插件
  • Load Default Workflow:加载默认工作流

5.2 AI漫剧必备插件推荐

插件名称功能安装命令
ComfyUI-Manager插件管理器git clone https://github.com/ltdrdata/ComfyUI-Manager.git
ComfyUI-Impact-Pack图像处理增强通过Manager安装
ComfyUI-ControlNetAuxControlNet预处理器通过Manager安装
ComfyUI-IP-Adapter-PlusIP-Adapter增强通过Manager安装
ComfyUI-Inspire-Pack灵感辅助工具通过Manager安装
ComfyUI-Advanced-living动态效果增强通过Manager安装
ComfyUI-WD14-Tagger自动打标工具通过Manager安装
ComfyUI-VideoHelperSuite视频处理工具通过Manager安装
ComfyUI-AudioScheduler音频调度工具通过Manager安装
ComfyUI-LCMLCM加速采样通过Manager安装

通过ComfyUI-Manager安装插件:

  1. 打开ComfyUI界面
  2. 点击"Manager"按钮
  3. 选择"Install Custom Nodes"
  4. 搜索插件名称
  5. 点击"Install"按钮
  6. 重启ComfyUI

5.3 插件管理最佳实践

# 查看已安装的插件
ls ComfyUI/custom_nodes/

# 更新所有插件
cd ComfyUI/custom_nodes
for dir in */; do
    if [ -d "$dir/.git" ]; then
        echo "更新 $dir"
        cd "$dir" && git pull && cd ..
    fi
done

# 备份插件列表
ls ComfyUI/custom_nodes/ > my_plugins_list.txt

# 批量安装插件(从列表)
while read plugin; do
    cd ComfyUI/custom_nodes
    git clone "$plugin"
done < plugins_to_install.txt

[!TIP] 不要安装过多的插件。每个插件都会增加ComfyUI的启动时间和内存占用。建议只安装实际使用的插件,定期清理不需要的插件。对于AI漫剧创作,核心插件(Manager、Impact-Pack、ControlNetAux、IP-Adapter-Plus)已经能满足大部分需求。

六、模型部署

6.1 模型文件结构

ComfyUI的模型文件按照类型存放在不同的目录下:

ComfyUI/
├── models/
│   ├── checkpoints/        # 主模型(SD 1.5、SDXL、Flux等)
│   ├── lora/               # LoRA模型
│   ├── controlnet/         # ControlNet模型
│   ├── ipadapter/          # IP-Adapter模型
│   ├── vae/                # VAE模型
│   ├── clip/               # CLIP模型
│   ├── embeddings/         # Embedding/Textual Inversion
│   ├── ultralytics/        # YOLO检测模型
│   ├── upscale_models/     # 超分辨率模型
│   └── style_models/       # 风格模型

6.2 下载和安装模型

下载SDXL基础模型:

# 创建目录
mkdir -p ComfyUI/models/checkpoints

# 下载SDXL Base 1.0
cd ComfyUI/models/checkpoints
wget https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors

# 下载SDXL Refiner 1.0
wget https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/resolve/main/sd_xl_refiner_1.0.safetensors

下载ControlNet模型:

# 下载SDXL ControlNet模型
mkdir -p ComfyUI/models/controlnet
cd ComfyUI/models/controlnet

# Canny边缘检测
wget https://huggingface.co/xinsir/controlnet-openpose-sdxl-1.0/resolve/main/controlnet-openpose-sdxl-1.0.safetensors

# OpenPose姿态
wget https://huggingface.co/xinsir/controlnet-canny-sdxl-1.0/resolve/main/controlnet-canny-sdxl-1.0.safetensors

# Depth深度
wget https://huggingface.co/diffusers/controlnet-depth-sdxl-1.0/resolve/main/diffusion_pytorch_model.safetensors

下载IP-Adapter模型:

# 下载IP-Adapter Plus模型
mkdir -p ComfyUI/models/ipadapter
cd ComfyUI/models/ipadapter

# IP-Adapter Plus SDXL
wget https://huggingface.co/h94/IP-Adapter/resolve/main/sdxl_models/ip-adapter-plus_sdxl_vit-h.safetensors

# CLIP Vision模型(IP-Adapter需要)
mkdir -p ComfyUI/models/clip_vision
cd ComfyUI/models/clip_vision
wget https://huggingface.co/h94/IP-Adapter/resolve/main/models/image_encoder/model.safetensors

6.3 模型下载推荐网站

网站地址特点
Civitaihttps://civitai.com全球最大的AI模型社区
Hugging Facehttps://huggingface.co官方模型仓库
LiblibAIhttps://www.liblib.art国内AI模型平台
Tensor.arthttps://tensor.artAI模型社区
吐司Tiamathttps://tiamat.world国内AI创作平台

[!WARNING] 下载模型时注意版权问题。部分模型有特定的使用限制(如禁止商用)。在AI漫剧创作中使用模型前,请仔细阅读模型的License。Civitai上的模型通常标注了使用许可(Creative Commons等),请遵守相关规定。

七、常见问题排查

7.1 启动问题

问题:启动报错 "CUDA out of memory"

# 原因:GPU显存不足
# 解决方案1:使用低显存模式启动
python main.py --lowvram

# 解决方案2:使用CPU模式(速度极慢)
python main.py --device cpu

# 解决方案3:减小模型尺寸
# 使用SD 1.5模型代替SDXL(显存需求更低)

问题:启动报错 "ModuleNotFoundError"

# 原因:缺少Python依赖
# 解决方案:重新安装依赖
pip install -r requirements.txt

# 如果是插件缺少依赖
cd custom_nodes/插件名称
pip install -r requirements.txt

问题:端口被占用

# 原因:8188端口已被其他程序使用
# 解决方案:使用其他端口
python main.py --port 8189

# 或查看并关闭占用端口的程序
# Windows:
netstat -ano | findstr 8188
# Linux/Mac:
lsof -i :8188

7.2 性能优化

启用xFormers加速:

# 安装xFormers
pip install xformers

# 启动时自动使用xFormers
# ComfyUI默认会检测并使用xFormers

启用TensorRT加速(高级):

# TensorRT可以显著提升推理速度
# 需要NVIDIA GPU和CUDA 11.8+

# 安装TensorRT
pip install tensorrt

# 在ComfyUI中使用TensorRT节点
# 通过ComfyUI-Manager安装 ComfyUI-TensorRT 插件

优化虚拟内存(Windows):

# 如果系统内存不足,可以增加虚拟内存
# 设置方法:
# 1. 右键"此电脑" → 属性 → 高级系统设置
# 2. 性能 → 设置 → 高级 → 虚拟内存 → 更改
# 3. 设置初始大小和最大大小为物理内存的1.5-2倍

7.3 网络问题

模型下载速度慢:

# 设置Hugging Face镜像
export HF_ENDPOINT=https://hf-mirror.com

# 设置pip镜像
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

无法访问GitHub:

# 使用GitHub镜像
git clone https://ghproxy.com/https://github.com/comfyanonymous/ComfyUI.git

# 或使用Gitee镜像(如果有)

八、ComfyUI基本操作入门

8.1 界面介绍

ComfyUI的界面由以下几个区域组成:

  • 画布区域:主要工作区,用于放置和连接节点
  • 侧边栏:显示已保存的工作流列表
  • 菜单栏:提供文件操作、设置等功能
  • 队列面板:显示待执行和已完成的任务

8.2 基本操作

添加节点:右键画布 → 选择节点类型
连接节点:从输出端口拖拽到输入端口
删除节点:选中节点 → 按 Delete 键
移动节点:左键拖拽节点
缩放画布:鼠标滚轮
平移画布:中键拖拽 / 空格+左键拖拽
保存工作流:Ctrl+S 或 菜单 → Save
加载工作流:菜单 → Load

8.3 创建第一个工作流

以下是一个最简单的文生图工作流的创建步骤:

  1. 添加Checkpoint Loader节点:右键 → Loaders → Checkpoint Loader (Simple)
  2. 添加CLIP Text Encode节点:右键 → conditioning → CLIP Text Encode (Prompt)(添加两个)
  3. 添加Empty Latent Image节点:右键 → latent → Empty Latent Image
  4. 添加KSampler节点:右键 → sampling → KSampler
  5. 添加VAE Decode节点:右键 → latent → VAE Decode
  6. 添加Save Image节点:右键 → image → Save Image
  7. 连接节点:按照数据流方向连接各节点

连接方式:

Checkpoint Loader → CLIP Text Encode (正向/反向)
Empty Latent Image → KSampler
CLIP Text Encode (正向) → KSampler (positive)
CLIP Text Encode (反向) → KSampler (negative)
Checkpoint Loader → KSampler (model)
KSampler → VAE Decode
VAE Decode → Save Image
Checkpoint Loader → VAE Decode (vae)

[!TIP] 如果觉得手动创建工作流太麻烦,可以加载ComfyUI自带的默认工作流(菜单 → Load Default),然后在此基础上修改。社区中也有大量现成的工作流可以下载使用,在Civitai、GitHub等平台搜索"ComfyUI workflow"即可找到。

九、总结

安装路径选择建议

用户类型推荐安装方式原因
完全新手Windows便携版 / 整合包最简单,开箱即用
有一定基础Git克隆 + 虚拟环境方便更新和管理
服务器部署Docker环境隔离,易于管理
Mac用户Homebrew + PythonApple Silicon支持MPS
Linux用户apt + pip原生支持,性能最佳

安装后检查清单

安装完成后,请按照以下清单检查:

  • ComfyUI能正常启动,浏览器能访问 http://127.0.0.1:8188
  • GPU被正确识别(启动日志中显示GPU信息)
  • ComfyUI-Manager已安装并能正常使用
  • 至少下载了一个Checkpoint模型
  • 能成功生成一张测试图片
  • 常用插件已安装(ControlNet、IP-Adapter等)
  • 模型目录结构正确

[!INFO] ComfyUI的学习曲线相对陡峭,但一旦掌握了基本操作,你会发现它比SD WebUI更加强大和灵活。对于AI漫剧创作,ComfyUI的节点式工作流特别适合构建复杂的、可复用的生成流程。建议新手先从简单的工作流开始,逐步添加ControlNet、IP-Adapter等高级节点,循序渐进地提升技能。

相关教程