
Nunchaku 黑科技:ComfyUI 终极加速与显存优化
MIT Han Lab 发布的黑科技量化技术——Nunchaku。它基于强大的 SVDQuant 技术,能让你在享受更快生图速度和更低显存占用的同时,获得几乎无损的画质!
更令人兴奋的是,在最新的版本中,Nunchaku 已经全面兼容几乎所有的 Flux 生态插件,包括 LoRA, ControlNet, Redux, PuLID 等。官方还雄心勃勃地计划在未来版本中,支持目前市面上效果最好的开源视频生成模型 Sora-level Wan2.1。
这篇教程将手把手带你完成 Nunchaku 的安装和配置,让我们开始吧!
- Nunchaku 插件官方仓库: https://github.com/mit-han-lab/ComfyUI-nunchaku/tree/main
小提示:从源码安装的过程比较复杂,强烈建议使用官方编译好的 wheel 文件来安装,省时省力!
🚀 第一步:安装前准备,检查环境
在开始安装之前,我们需要确认一下你的 ComfyUI 环境是否满足要求。
-
确认 PyTorch 版本 Nunchaku 要求 PyTorch 版本 大于或等于 2.5。你可以在启动 ComfyUI 时,在命令行窗口(小黑窗)的顶部看到你的环境版本信息。
例如,你会看到类似下面这样的输出:
Python version: 3.12.9 (main, Nov 14 2022, 16:10:14) [GCC 11.3.0]PyTorch version: 2.7.0+cu128请记下你的
Python version
和Pytorch version
,下一步会用到。
🛠️ 第二步:安装 Nunchaku核心依赖
-
下载预编译的 Wheel 文件 前往 Nunchaku 的 Hugging Face 仓库下载已经编译好的
.whl
文件。你需要根据上一步记录的版本信息,找到完全匹配的文件。文件名结构如下:
nunchaku-0.3.1+torch2.7-cp312-cp312-win_amd64.whl
nunchaku-0.3.1
: 插件版本号torch2.7
: 对应你的pytorch version: 2.7.0+cu128
cp312
: 对应你的Python version: 3.12.9
win_amd64
: 对应 Windows 系统
请仔细核对,下载与你环境完全对应的文件。
-
执行安装命令
- 将下载好的
.whl
文件放在你的 ComfyUI 根目录下。 - 打开命令行窗口,进入 ComfyUI 根目录,执行以下命令来安装:
Terminal window .\.venv\Scripts\python.exe -m pip install nunchaku-0.3.1+torch2.7-cp312-cp312-win_amd64.whl注意:请将上面的文件名替换成你实际下载的文件名!
- 将下载好的
-
(可选)升级或重装 如果你之前安装过旧版本的 Nunchaku,建议先卸载再安装新版本,以确保环境纯净。
Terminal window .\.venv\Scripts\python.exe -m pip uninstall nunchaku卸载后,再回到上面的步骤,下载并安装最新的 wheel 文件。
🔌 第三步:安装 ComfyUI 插件
- 打开 ComfyUI Manager。
- 点击 “Install Custom Nodes”。
- 搜索
nunchaku
并安装。 - 安装完成后,重启 ComfyUI。
🧩 第四步:下载 Nunchaku 量化模型
准备工作全部就绪,接下来是最关键的一步:下载 Nunchaku 专属的量化模型。只有使用这些模型,才能发挥 Nunchaku 的全部威力。
你可以在 Nunchaku 的 Hugging Face 官方组织页面寻找所有可用的模型:
以下是我个人常用的一些核心模型链接,方便大家直接下载:
-
T5 Text Encoder: https://huggingface.co/mit-han-lab/nunchaku-t5/tree/main
-
FLUX.1-dev: https://huggingface.co/mit-han-lab/nunchaku-flux.1-dev/tree/main
-
FLUX.1-kontext-dev: https://huggingface.co/mit-han-lab/nunchaku-flux.1-kontext-dev
-
FLUX.1-fill-dev: https://huggingface.co/mit-han-lab/nunchaku-flux.1-fill-dev/tree/main
-
FLUX.1-schnell: https://huggingface.co/mit-han-lab/nunchaku-flux.1-schnell/tree/main
-
FLUX.1-canny-dev (ControlNet): https://huggingface.co/mit-han-lab/nunchaku-flux.1-canny-dev/tree/main
模型存放位置:
下载完模型后,请将它们放在 ComfyUI 对应的模型目录中。例如,FLUX 系列模型通常放在 ComfyUI/models/diffusion_models/
目录下,T5 Text放在 ComfyUI/models/text_encoders/
🎉 第五步:启动与使用
所有模型和插件都就位后,就可以启动 ComfyUI 了!
- 启动 ComfyUI,并留意命令行窗口的打印信息,确保没有报错。
- 加载工作流,你可以直接将下载好的工作流文件(
.json
)拖拽到 ComfyUI 的工作界面中。 - 尽情享受 Nunchaku 带来的极速出图体验吧!
故障排除: 如果启动时遇到报错,很大概率是因为网络问题导致某些依赖没有自动安装完整。最简单的解决方法是:关闭 ComfyUI,然后再次重启。ComfyUI 在启动时会自动检查并尝试补全缺失的依赖。
希望这篇笔记能帮助你顺利地用上 Nunchaku 这款神器,释放你显卡的真正潜力!