Skip to content

使用魔当 一键部署 ComfyUI,选择正确运行环境

ComfyUI 是一个可视化的图片、视频生成工具,让你像搭积木一样轻松修改和使用AI绘画和视频模型。比如非常流行的FLUX.1 Dev, Stable Diffusion 3.5, Hunyuan Video, Framepack, WAN Video, Qwen Image, LTX-2 Video

如果你有一定开发经验,可以从Github下载源码,在本地部署。也可以从官网直接下载客户端。

使用 魔当(LM Downloader) 可以在本地一键部署ComfyUI,整个流程完全自动化,适合新手,同时支持Mac和Windows。为什么ComfyUI官网提供了客户端,我们还要在魔当中提供ComfyUI部署的功能? 因为魔当对自定义节点(Custom Nodes)和模型(Models)的下载,进行了大量优化,更方便不想折腾或不懂技术的用户使用。

注意

  • 如果使用Windows,建议用NVIDIA显卡,并更新CUDA,显存不低于4GB。参考:《安装CUDA:AI大模型软件实现GPU加速》
  • 如果使用macOS,推荐使用M系列芯片。
  • 硬盘至少有10GB的可用空间,就能快速体验ComfyUI,如果想深入使用各种模型,建议保留100GB以上空间。

在魔当中找到 ComfyUI

打开魔当,点击左侧菜单的“本地部署”,可以看到多个可以在本地部署的AI应用,找到ComfyUI。点击ComfyUI图标,进入应用介绍页。

点击安装按钮,如果你是第一次使用魔当安装AI应用,会提醒你即将安装到的目录。

打开安装窗口,会自动安装ComfyUI。如果已经安装过了,也不必担心,这样的操作可以当作是更新ComfyUI的程序到最新版本,不会影响你以前下载的模型。 点击右下角查看日志按钮,可展开日志界面,通过日志排查安装过程中的问题。

开始运行 ComfyUI

在应用的详情页,点击右侧的运行按钮,会打开运行窗口。在成功启动后,会自动打开您的浏览器。

在运行窗口中,可看到一些常用目录的快捷入口,如“模型文件”,“工作流文件”,“生成结果文件”,“自定义节点”等。

在运行按钮下方,可看到“ComfyUI专区”,我们收录了流行“工作流”或“模型”,可点击数字,打开相应页面。

 

如何选择“启动选项”?

如果你使用Windows,且安装了NVIDIA显卡,就能看到右侧的启动选项,可选择不同的运行环境,选择torch 2.7.1保证稳定性,选择其他torch版本更能发挥显卡性能。而使用其他品牌显卡,或macOS,不会看到这些选项。

我们将视角从“普通家用卡”提升到“从旧款 Pascal 到顶级 Rubin 架构”的全维度,并涵盖了工作站(RTX Ada/A系列)与数据中心(H/B/R系列)的需求。

🚀 ComfyUI 环境选择指南:从架构底层释放显存潜能

ComfyUI 的核心性能取决于 PyTorch (后端驱动)CUDA (计算指令集)GPU 架构 (硬件核心) 的三位一体。我们为您预设了三套环境,旨在覆盖从十年前的经典显卡到未来五年的顶级算力芯片。


📊 全架构硬件匹配矩阵

环境选项核心架构 (Codename)典型显卡型号核心优势
torch 2.7.1Pascal / Turing / AmpereGTX 10/20系列, RTX 30系列,
Quadro P/RTX系列, A100/A800
兼容至上:旧架构驱动极稳。
torch 2.8.0Ada Lovelace / BlackwellRTX 40/50系列, RTX 6000 Ada,
L40S, H100 / H200 / B100
性能中坚:支持 FP8 推理。
torch 2.9.1Blackwell / Rubin (Next Gen)RTX 50系列, B200, GB200,
Rubin R100 / R200
架构超频:支持 NVFP4 量化。

🔍 深度解析:你该选择哪一套?

1️⃣ 默认运行环境 torch 2.7.1 (兼容与稳定)

  • 适用架构sm_60sm_86
  • 核心特性:使用 Torch 2.7.1 + CU 12.8。这是目前最成熟的生态圈,几乎所有的自定义插件(尤其是涉及底层 C++ 编译的换脸、视频流插件)均在此版本开发测试。
  • 适用场景老旧工作站升级A100/A800 算力集群。如果你的首要需求是“所有工作流一次性跑通且不报错”,请选此项。

2️⃣ torch 2.8.0 (Ada/Blackwell 优化版)

  • 适用架构sm_89 (Ada) / sm_100 (Blackwell 初版)。
  • 核心特性:使用 Torch 2.8.0 + CU 12.8。这是为 RTX 40 系列H100/B100 数据中心显卡量身定制的。
  • 关键提升:大幅优化了 FP8 (8位浮点) 的矩阵运算效率。在运行 Flux.1 (Schnell/Dev) 或大参数量的 SD3.5 时,显存回收效率提升 20%,生成速度显著快于默认环境。
  • 适用人群:拥有 40 系显卡或使用 H100 服务器,且需要平衡插件兼容性的用户。

3️⃣ torch 2.9.1 (Blackwell / Rubin 实验版)

  • 适用架构sm_120 (Blackwell) 及未来预研架构 sm_130/140 (Rubin)。

  • 核心特性:使用 Torch 2.9.1 + CU 12.8。这是针对 RTX 50 系列 (5060Ti-5090) 及英伟达下一代 Rubin (R100) 架构的最前沿适配。

  • 架构红利

  • NVFP4 原生支持:利用 Blackwell 架构的硬件级 4位浮点加速,让推理效率翻倍。

  • 深度优化:针对下一代 Rubin 架构的 HBM4 显存特性预留了更高的内存交换带宽。

  • 适用场景顶级个人工作室B200/GB200 计算节点。如果你在处理百亿参数级模型且追求极致秒出图,请选此项。


💡 架构科普:我的显卡在哪一层?

显卡类型架构名称常见代表作
未来/尖端 (Future)Rubin (鲁宾)R100, R200 (2026年后主流)
当前最强 (Current)BlackwellRTX 50系列, B100, B200, GB200
现代主流 (Modern)Ada LovelaceRTX 40系列, RTX 6000 Ada, L40S
经典高性能 (Classic)AmpereRTX 30系列, A100, A10, A30
基础兼容 (Basic)Turing / PascalRTX 20系列, GTX 10系列, P100, T4

⚠️ torch 2.9.1 风险提示与维护建议

  1. 驱动限制:若选择“torch 2.9.1”,请确保你的显卡驱动已更新至最新版(建议 580.xx 以上),否则 CUDA 环境可能无法正常启动或无法识别显卡。
  2. 插件断层:新版本可能会导致 2024 年前停止更新的插件报错。建议在新环境加载失败时,优先检查 custom_nodes 目录下的旧插件。
  3. 显存自动管理:具备更强的 Async Offloading(异步权重卸载)能力,非常适合 5060 Ti 16G 或 B100 等具备大带宽或高显存的设备。

❓ 常见问题 (FAQ)

Q:我的显卡是 RTX 5060 Ti 16G,应该选哪个?

A:如果求稳定,建议首选 torch 2.7.1。这个显卡属于最新的 Blackwell 架构,如果想运行fp4的量化模型,必须使用torch 2.8.0。如果对性能有更高要求,建议选 torch 2.9.1。

Q:我的显卡是 RTX 4060 Ti 16G,应该选哪个?

A:如果求稳定,建议首选 torch 2.7.1。追求更高性能,选择torch 2.8.0,大部分情况下可稳定运行,可运行fp8量化模型。此显卡在运行fp4的量化模型时,不会有性能提升,不建议使用。

Q:我的显卡是 RTX 3060 8GB,应该选哪个?

A:建议选 torch 2.7.1。torch 2.8.0 某些场景下可能更快,也可能变慢。

Q:可以更换环境吗?

A:可以的,上一次选择的环境不会影响到下一次的使用。但每次切换不同环境运行时,会重新检查依赖项,此过程较耗时。一直用同一个环境,启动会比较快。

Q:三个环境生成的画质有区别吗?

A: 没有区别。环境只影响生成的速度和显卡的温控/显存占用,不影响数学逻辑层面的最终出图效果。

资源介绍

如果你是第一次使用ComfyUI,会看到官方提供的最简单的示例,想快速体验ComfyUI,你可以用它来试试。

默认示例的效果一般,我们建议你使用其他功能更丰富,效果更出色的工作流和模型。

参考:

外部访问

如果你想让局域网其他电脑访问这个ComfyUI服务,可以选择“允许外部访问”,以开启远程访问功能,但注意,有数据泄露和被攻击的风险,要确保你的网络是安全的,如果不确定,请不要开启。

 

如果下载模型和使用过程中遇到问题,可联系我们技术团队协助。tech@daiyl.com

微信扫一扫加客服