ComfyUI Flux.1-dev ControlNet 放大器
7 个月前
我正在测试由 Jasper Ai 发布的 Flux.1-dev ControlNet Upscaler 模型,并简要介绍一些使用的节点。
你可以使用 Hugging Face 的演示来轻松尝试 Flux.1-dev ControlNet Upscaler:https://huggingface.co/spaces/jasperai/Flux.1-dev-Controlnet-Upscaler
Upscaler ComfyUI 工作流程
我从一段 _ YouTube 视频 中获取了工作流程,并进行了少量修改。
我在这个故事中提到了一些节点:ComfyUI 基本节点 2 (Flux)。因此,我将在这里讨论不同的信息。
ControlNet
它通过保留姿势或图像构图等特征,在扩散模型中提供更精细的控制。在这个工作流程中,目标是保留上传图像中人物的细节,并生成一张具有相似构图的新图像。提示框留空,因为我们不想对输入照片进行任何更改。我们使用 Flux.1-dev-Controlnet-Upscaler 模型来提高分辨率。我们将 ControlNet 的正输出连接到 Flux Guidance。
Flux Guidance
它的结构类似于我在 ComfyUI 基本节点 1 (稳定扩散) 故事中使用的 CFG 参数。它用于 Flux。
图像调整大小
该节点根据指定的值调整宽度和高度。保持比例选项确保图像保持其原始纵横比,这意味着宽度和高度将按比例缩放,防止失真。
模型采样 Flux
该节点根据分辨率和其他参数调整模型的采样行为,优化输出以在转换过程中保持图像质量[1]。它使用的参数包括 基础偏移——一个小而一致的调整以保持稳定性——和 最大偏移——允许的潜在向量的最大变化,以防止极端偏差。这两者共同确保图像生成的稳定性和灵活性,保持转换受控,同时保留质量[2]。
Basic Guider 节点将 ControlNet 和 ModelSamplingFlux 的输出传递给 SamplerCustomAdvance 节点。
示例图像
有时这可能会导致细节上的小错误。(如果你放大,你会更清楚地注意到差异。)
参考文献:
[1]:https://www.runcomfy.com/comfyui-workflows/comfyui-flux-nf4-workflow
[2]:https://www.reddit.com/r/comfyui/comments/1epetb4/understanding_flux_settings_max_shift_base_shift/
https://huggingface.co/jasperai/Flux.1-dev-Controlnet-Upscaler
https://www.youtube.com/watch?v=c-xUonw1r9s (获取更多详细信息)
如果你发现任何错误,请告诉我。我欢迎任何建议、想法和问题。谢谢 🙂
推荐阅读:
FluxAI 中文
© 2025. All Rights Reserved