ComfyUI 中使用 GGUF 格式的模型文件存放位置
- 2026-01-19
- 阅读:144
在 ComfyUI 中使用 GGUF 格式的模型时,需要将不同组件的文件放置到指定的目录中,以确保工作流能正确加载。

对于 FLUX 系列 的 GGUF 模型,文件应按以下方式放置:
-
UNet 主模型(.gguf 文件):放置在
ComfyUI/models/unet目录下。
例如:flux1-schnell-Q4_0.gguf或flux1-dev-Q5_K_M.gguf。 -
T5-XXL 文本编码器(.gguf 文件):放置在
ComfyUI/models/clip目录下。
建议使用 Q5_K_M 或更高精度的版本以获得最佳效果。 -
VAE(变分自编码器,.safetensors 文件):放置在
ComfyUI/models/vae目录下。
该文件需从 Black Forest Labs 官方获取,非 GGUF 格式。
此外,为支持 GGUF 模型的加载,必须安装 ComfyUI-GGUF 自定义节点。安装方法如下:
- 将
ComfyUI-GGUF文件夹放入ComfyUI/custom_nodes/目录。 - 通过命令行安装依赖(在
ComfyUI/custom_nodes/ComfyUI-GGUF目录下执行):bashCopy Code.\python_embeded\python.exe -s -m pip install -r requirements.txt - 重启 ComfyUI。
⚠️ 注意:不同模型(如 FLUX、HunyuanImage)的文件目录结构可能不同。例如,HunyuanImage-GGUF 的文本编码器需放入
models/text_encoders,而 FLUX 模型则使用models/clip。请根据所用模型的官方指南确认路径。
安装完成后,在 ComfyUI 工作流中添加 UNet Loader GGUF 和 DualClip Loader GGUF 节点,并正确连接输入端口即可运行。
例如:
Wan2.1官方量化模型gguf版本
两个Wan2.1官方的量化模型图生视频的gguf版本,需要配合官方的流程使用,
模型资源(放到根目录的models\unet文件夹下):
- wan2.1-i2v-14b-480p-Q4_K_S.gguf
- wan2.1-i2v-14b-720p-Q6_K.gguf
需要同时配置的文件:
clip文件:(放到根目录下models\text_encoders文件夹下)
- umt5-xxl-enc-bf16.safetensors
clip_vision文件(放到根目录下models\clip_vision文件夹下)
- clip_vision_h.safetensors
vae文件:(放到根目录下models\vae文件夹下)
- comfy-wan_2.1_vae.safetensors

部分评论