"Kohya大神出手!FLUX LoRA性能飞跃,低至4GB显卡也能爽玩!DreamBooth/微调新技巧揭秘!"


5 个月前

https://www.patreon.com/posts/112099700 — 微调文章

https://www.patreon.com/posts/110879657 — LoRA 文章

Kohya 对 FLUX LoRA 和 DreamBooth / 微调(最低 6GB GPU)训练带来了巨大的改进。

现在,低至 4GB 的 GPU 也能以不错的质量进行 FLUX LoRA 训练,而 24GB 及以下的 GPU 在进行全 DreamBooth / 微调训练时获得了巨大的速度提升。

你需要至少 4GB 的 GPU 来进行 FLUX LoRA 训练,至少 6GB 的 GPU 来进行 FLUX DreamBooth / 全微调训练。这简直令人难以置信。

你可以下载所有配置和完整说明 > https://www.patreon.com/posts/112099700

上述文章还提供了适用于 Windows、RunPod 和 Massed Compute 的一键安装程序和下载器。

模型下载脚本也已更新,在 Massed Compute 上下载 30+GB 的模型仅需 1 分钟。

你可以在这里阅读最近的更新:https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates

这是 Kohya GUI 的分支:https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1

减少 VRAM 使用的关键是使用块交换。

Kohya 实现了 OneTrainer 的逻辑,显著提高了块交换速度,现在也支持 LoRAs。

现在你可以在 24GB 及以下的 GPU 上进行 FP16 训练和 LoRAs 训练。

现在你可以在 4GB 的 GPU 上训练 FLUX LoRA — 关键在于 FP8、块交换和使用特定的层训练(记住单层 LoRA 训练)。

我花了超过一天的时间来测试所有新的配置、它们的 VRAM 需求、它们的相对步骤速度,并准备这些配置 :)

None

None

全微调教程在这里:https://youtu.be/FvpWy1x5etM

全 LoRA 训练教程在这里:https://youtu.be/nySGu12Y05k

推荐阅读:

FluxAI 中文

© 2025. All Rights Reserved