🔥【教程】如何在ComfyUI中运行Flux模型(gguf)并集成LoRA?🚀


4 个月前

最近我在使用 Flux 的托管版本来生成图像,但费用相当高。而且 Replicate 也提高了他们的定价,所以我为此支付了不少账单。

我决定在本地生成图像,使用 gguf 格式,因为这种模型格式使模型更紧凑且加载速度更快(使用了先进的压缩技术)。

整个过程分为 4 个部分。

第一部分:下载并运行 ComfyUI,添加 gguf 支持

第二部分:下载工作流并加载到 ComfyUI 中

第三部分:下载模型(TE、VAE、transformer、LoRA)到 ComfyUI 中

第四部分:编写提示词并在 ComfyUI 中运行工作流

第一部分:下载并运行 ComfyUI

从 GitHub 链接下载 ComfyUI: https://github.com/comfyanonymous/ComfyUI?tab=readme-ov-file#installing (我使用的是 Mac Pro,没有 Nvidia GPU,但我仍然可以在大约 3 分钟内运行推理。)

在这一部分的最后,你应该能够在浏览器中启动 ComfyUI。

(creator) macbookpro4:ComfyUI yil$ python main.py 
Total VRAM 32768 MB, total RAM 32768 MB
pytorch version: 2.5.1
Set vram state to: SHARED
Device: mps
Using sub quadratic optimization for cross attention, if you have memory or speed issues try using: --use-split-cross-attention
[Prompt Server] web root: /Users/yil/comfyUI/ComfyUI/web

Starting server

To see the GUI go to: http://127.0.0.1:8188

然后访问 http://127.0.0.1:8188,你会看到一个带有这个小控制器的网页。

None

接下来,我们需要下载 ComfyUI-GGUF 来为 ComfyUI 添加 gguf 支持。你需要进入你的 comfyUI/custom_nodes 目录,使用 git clone 下载 https://github.com/city96/ComfyUI-GGUF 到这个文件夹中。

第二部分:下载工作流并加载到 ComfyUI 中

你可以从这里下载工作流: https://drive.google.com/file/d/1lWsaVtESydGudEakK0CW9C28qHSVOlcu/view?usp=sharing

然后只需点击上面面板中的“Load”按钮,将 json 文件加载到 ComfyUI 中。

第三部分:下载模型(TE、VAE、transformer、LoRA)到 ComfyUI 中

为此,我们首先需要下载一堆模型:

2 个 Clips(文本编码器):

VAE:

Unet:

LoRA:

然后我们需要将这些模型放到它们各自的位置,两个 clips 模型放在 comfyUI/models/clip 文件夹中,VAE 放在 comfyUI/models/vae 文件夹中,Unet 放在 comfyUI/models/unet 文件夹中,LoRA 放在 comfyUI/models/loras 文件夹中。

第四部分:编写提示词并在 ComfyUI 中运行工作流

None

推荐阅读:

FluxAI 中文

© 2025. All Rights Reserved