作者avans (阿纬)
看板AI_Art
标题[分享] 因flux2与Z-image新玩具/首次安装ComfyUI
时间Sun Nov 30 04:41:06 2025
多年来我一直都是忠贞的stable-diffusion-webui-forge玩家
未考虑使用舒适(ComfyUI)
其实只是因为懒得换环境(w
这次新推出的flux2与Z-image新玩具
本来还有参考在huggingface上面的FLUX.2-dev spaces专案
想在本地玩玩看
专案中是使用diffusers的Flux2Pipeline来载入模型与执行
不过不管是FLUX.2-dev-bnb-4bit还是flux2_dev_Q2_K.gguf
执行时都要耗费爆量的vram
完全无法运行
毕竟FLUX.2-dev有32B 参数
以前经验LLM超过8B不量化
执行起来就会很吃力了
後来在reddit看到ComfyUI 8GB VRAM + 18GB RAM usage
可在300~500秒生成一张图片
https://www.reddit.com/r/StableDiffusion/comments/1p6zmjv/
我不晓得ComfyUI是如何控制vram不会爆量
也许是model cpu offload之类的
总之我就开始了首次的ComfyUI安装
底下介绍给有打算安装ComfyUI的新手(我也是才玩1天而已)
1. 安装ComfyUI
首先在ComfyUI官网有执行档可以安装
在github中也有打包好的可携版本(包含python)
* 在github的README.md中也有介绍手动安装方式
https://github.com/comfyanonymous/ComfyUI/releases
因为我是3060 12G所以我选择
ComfyUI_windows_portable_nvidia_cu128.7z
* cu126, cu128这个是CUDA版本,12.6、12.8 or 13.0
下载後解压缩到任意目录中
里面会有run_nvidia_gpu_fast_fp16_accumulation.bat 档案
这会将模型以fp16精度方式来加速执行
品质稍微降低,不过无所谓
重要的是能降低vram用量
2. ComfyUI流程范本
之前我已知道ComfyUI执行方式
都必须透过连接节点制作对应功能的流程
不过我完全不晓得官方有内建多项流程范本
这有点惊艳到我
最新版本已经内建Flux.2 DEV了
https://i.meee.com.tw/Rq04OJB.png
使用官方范本的好处是会显示缺少的模型
并且可直接下载
https://i.meee.com.tw/rjv0BMT.png
不过这个范本是使用fp8精度模型
仍需使用巨量的vram
https://i.meee.com.tw/0kMjkDe.png
所以官方范本不适合我的环境
3. GGUF量化版本
後来在huggingface上面找到有提供flux2-dev的gguf档案
而且连text_encoders都是gguf量化版本
更棒的是连workflow流程档案都有
流程档案:
workflow-flux2-dev-gguf.json
或
workflow-demo-01.png
ComfyUI生成的图片本身都会崁入workflow
将json或图片拖曳至ComfyUI上面就会自动显示所需的节点
https://huggingface.co/gguf-org/flux2-dev-gguf
https://raw.githubusercontent.com/calcuis/comfy/master/flux2-dev.png
你所需要下载的档案有3个
文字编码器、模型档案、vae档案
下载後放置至对应的ComfyUI目录
drag cow to > ./ComfyUI/models/text_encoders/
drag flux2 to > ./ComfyUI/models/diffusion_models/
drag pig to > ./ComfyUI/models/vae/
gguf量化版本有q2、q3、q4、q5、q6、q8、iq4 (详细定义需要查一下)
我自己是下载底下三个来使用:
cow-mistral3-small-iq4_xs.gguf
flux2-dev-iq4_xs.gguf
pig_flux2_vae_fp32-f16.gguf
4. 必装套件ComfyUI Manager
https://github.com/Comfy-Org/ComfyUI-Manager
这个我一开始不晓得要安装
後来查询後才知道这绝对是所有ComfyUI使用者
都需要使用的重要套件
因为workflow的节点不会只有官方版本
民间设计的节点五花八门
缺少节点就完全无法执行
甚至还存在有所谓的私有节点
以RH开头的好像是runcomfy线上网站专用的
ex. RH_captioner、RH_LLMAPI_NODE...
如下图例子,缺少的节点会是红色框
https://i.meee.com.tw/9lQCHP9.png
而ComfyUI-Manager就是管理节点的强大工具
在安装该套件之前
需要确认系统已经有安装git软体
(git是程式开发的版控软体)
按照README.md说明方式:
使用cmd介面移动至ComfyUI/custom_nodes的路径,输入底下指定後再重启ComfyUI
git clone
https://github.com/ltdrdata/ComfyUI-Manager comfyui-manager
https://i.meee.com.tw/EwJ56LX.png
重启後会在任意流程的上方出现如下图的介面
点选Manager按钮後,会跳出ComfyUI Manager选单
https://i.meee.com.tw/clLhtxa.png
目前我只会使用底下两个功能
(1) Custom Nodes Manager
在此页面中会搜寻网路上所有公开的节点
在上方也可由选单执行Filter过滤内容与搜寻特定目标
如下图预设是All会显示全部
https://i.meee.com.tw/HYSKruc.png
例如选择Installed,他就会列出已安装套件,可执行更新或移除
https://i.meee.com.tw/5MoKW16.png
* 可看到在Nodes栏位中有的有写数字,这个是该套件内含的节点数量
(2) Install Missing Custom Nodes
点选此按钮後,其实出现的与上面页面相同
只是在过滤条件中是选Missing
https://i.meee.com.tw/LyqPcuC.png
https://i.meee.com.tw/elhKnvG.png
点安装按钮需要选择版本,没有喜好的话通常选最新的
安装後需要重启ComfyUI,节点才会生效
不过需要注意的是此功能只能找到7~9成的套件
因为有的节点名称与套件名称完全不同
这种就需要在网路上搜寻确认对应的套件名称
5. 介绍一下工作流程: workflow-flux2-dev-gguf
https://i.meee.com.tw/MWuEBdt.png

(1) 参考图
这个workflow已有设计两个参考图片,如果要更多参考图就需要自行串接:
载入图片1 => 将影像缩放至总像素数1 => VAE 编码1 => ReferenceLatent1
GGUF VAE Loader => VAE 编码1
载入图片2 => 将影像缩放至总像素数2 => VAE 编码2 => ReferenceLatent2
GGUF VAE Loader => VAE 编码2
这里要注意一下,图片红框处ReferenceLatent是红色的
这是什麽意思? 原来作者好心(XD)帮你将参考图功能停用了
如底下Note写的内容,要用滑鼠点一下节点,在按CTRL+B来启用节点
Note: Unbypass (CTRL-B) the ReferenceLatent nodes to give ref images.
Chain more of them to give more images.
我一开始也不晓得,想说参考图怎麽都没作用,後来才注意到被关闭了
不过启用参考图,执行速度也会降低,所以也不能启用太多参考图
(2) 正向提示词
GGUF CLIP Loader => CLIP Text Encode (Positive Prompt) => FluxGuidance =>
ReferenceLatent1
因为CLIP是gguf量化版本,所以此处是使用GGUF CLIP Loader来载入
如果是标准的CLIP模型,就直接使用CLIPLoader
Flux2使用的Text Encode是参数非常庞大的Mistral-3 24B
本身能理解多语言,直接输入中、日语也完全没问题
待会还会介绍的Z-image也类似,他使用的Text Encode是Qwen3-4B
参数虽小许多,但是输入中、日语也没什麽问题
仔细观察会看到ReferenceLatent1有参考图也有Prompt
然後两个ReferenceLatent还会串接在一起,再输出给引导器使用
ReferenceLatent1 => ReferenceLatent2
若ReferenceLatent未启用时(红色)
就只会给模型输入Positive Prompt而已
(3) 载入flux2模型与VAE
GGUF VAE Loader => VAE 解码 => 储存图片
GGUF Loader => 基础引导器 => SamplerCustomAdvanced => VAE 解码
ReferenceLatent2 => 基础引导器 => SamplerCustomAdvanced
因为我这里使用的是gguf量化版本
所以节点是GGUF Loader与GGUF VAE Loader
目前GGUF有两个套件
https://i.meee.com.tw/V6XuuCr.png
此工作流使用的是gguf
https://github.com/calcuis/gguf
(4) SamplerCustomAdvanced等节点
https://i.meee.com.tw/lUItSiB.png
Empty Flux 2 Latent => SamplerCustomAdvanced
随机杂讯 => SamplerCustomAdvanced
K采样器选择 => SamplerCustomAdvanced
Flux2Scheduler => SamplerCustomAdvanced
这几个节点用途有玩过SD的应该都会知晓
就是设定输出宽高、批次大小、seed、取样器、生图步数(steps)
(5) 执行速度
我的环境3060 12G、批次大小2、1024x1024、steps 20
每个it约30秒左右,一张图约5分钟
100%|███████████████████| 20/20 [09:21<00:00, 28.08s/it]
网路上看到其他人跑的速度,好像5060ti 16gb会快一倍的样子
以上是目前玩玩flux2-dev与ComfyUI小心得
虽然出图速度非常慢,不过能在本地玩Nano Banana也是挺有趣的
____________
再来底下介绍一下Z-image
1. Z Image Turbo模型
目前已公布的是Z Image Turbo模型,参数为6B
与FLUX.1 [dev]同样为蒸馏模型(distilled diffusion model)
____________
https://github.com/Tongyi-MAI/Z-Image
底下是官方github中的模型介绍说明(Gemini翻译)
Z-Image 是一款强大且高效的图像生成模型,拥有 60 亿(6B)参数。
目前共有三种变体:
Z-Image-Turbo –
Z-Image 的蒸馏版本,仅需 8 次 NFE(函数评估次数)
即可达到甚至超越领先竞品的水准。
它在企业级 H800 GPU 上具备 亚秒级的推理延迟,
并能轻松在 16G VRAM 的消费级装置上运行。
该模型在写实图像生成、中英双语文字绘制
以及强大的指令遵循能力方面表现出色。
Z-Image-Base –
非蒸馏的基础模型。藉由释出此检查点(checkpoint),
我们旨在释放社群驱动微调与客制化开发的无限潜力。
Z-Image-Edit –
专为图像编辑任务而基於 Z-Image 进行微调的变体。
它支援具备出色指令遵循能力的创意「图生图」(image-to-image)生成,
能根据自然语言提示词进行精准的编辑。
____________
从说明中可看到Turbo版本只能文生图,
更具实用性的图生图尚须等待Z-Image-Edit推出。
____________
2. 模型与workflow
Turbo版本模型档案与workflow都在底下网页中可下载
ComfyUI_examples
https://comfyanonymous.github.io/ComfyUI_examples/z_image/
同样要下载文字编码器、模型档案、vae档案
下载後一样要放置至对应的ComfyUI目录
Text encoder file: qwen_3_4b.safetensors
(goes in ComfyUI/models/text_encoders/).
diffusion model file: z_image_turbo_bf16.safetensors
(goes in ComfyUI/models/diffusion_models/).
VAE: ae.safetensors the Flux 1 VAE if you don’t have it already
(goes in ComfyUI/models/vae/)
好像也有gguf版本,不过我就没试过了
因为一般版本跑起来轻轻松松
下图是workflow
https://i.meee.com.tw/LoQ3SYF.png
因为没有参考图,所以节点挺简单的
3. 执行速度
我的环境3060 12G、批次大小2、1024x1024、steps 9
每个it约2.35秒左右,一张图约10.5秒就完成
100%|███████████████████| 9/9 [00:21<00:00, 2.35s/it]
跟flux2比起来出图速度根本是飞天了
所以网路上很多人是期待Z Image能成为SDXL的接班模型
除了速度快之外还有一点很重要是模型授权
Z Image是Apache-2.0 license
FLUX.2 [dev]是非商业且非生产用途的授权(Non-Commercial License v2.0)
最後还有一点NFSW...中国模型xd
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 220.129.18.149 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/AI_Art/M.1764448896.A.1D9.html
※ 编辑: avans (42.79.138.114 台湾), 11/30/2025 05:10:38
1F:推 error405: 有料 11/30 05:10
2F:推 YCL13: 节点Crystools建议装,可以简单看系统资源使用情况 11/30 07:50
3F:推 potatotato: z image好棒 快速又听话 11/30 08:25
ComfyUI-GGUF作者已更新节点包
现在CLIPLoader (GGUF)支援载入量化的Mistral-Small语言模型
例如我测试底下权重,可顺利载入
Mistral-Small-3.2-24B-Instruct-2506-IQ4_XS.gguf
https://huggingface.co/unsloth/Mistral-Small-3.2-24B-Instruct-2506-GGUF
※ 编辑: avans (111.241.69.142 台湾), 11/30/2025 11:17:19
4F:→ avans: 谢谢建议Crystools,已安装! 执行时确实很方便可看到使用率 11/30 11:37
5F:推 Supasizeit: Z无法双人运动 只能用近似描述 11/30 12:16
刚刚在C站看到有人建立了图生图流程
https://i.meee.com.tw/OqplQJR.png
https://civitai.com/models/2171626?modelVersionId=2445484
这好像就是标准的图生图方式
将原本的EmptySD3LatentImage节点移除
改为载入图片(LoadImage) => 放大图片(ImageScale) =>
VAE 编码 => 成为浅在空间影像 => KSampler
因为Z-Image-Turbo模型
毕竟只在t2i训练过
i2i结果可能不如预期
还是要等Z-Image-Edit
不过还是可玩玩看
作者建议在KSampler的Denoise中
设置 0.4 到 0.74 之间
越低越可保留原始图片样貌
※ 编辑: avans (111.241.69.142 台湾), 11/30/2025 14:13:09
6F:推 thor0919: 哇好详细 谢谢,最近刚好在玩grok 有点上瘾正在研究这种 11/30 14:11
7F:→ thor0919: 自架的 11/30 14:11
8F:推 stlinman: 非常期待Z-Image-Edit,能更好适配I2I可玩度就更广了! 11/30 15:42
9F:推 Supasizeit: i2i我有土炮过 但效果真的蛮鸟的 11/30 16:03
10F:→ Supasizeit: 我是放置了 等满血版跟edit版 11/30 16:04
目前i2i确实还不行,所以我也是先放置了
12F:→ mayasoo: 我的流程,先小的再放大的玩法 11/30 20:42
13F:推 pn369143: 好详细,感谢分享 11/30 20:44
14F:推 v86861062: 推推 12/01 07:08
15F:推 lyxiang: z image 虽然画质精美,但太一成不变,调整CFG也一样, 12/01 16:00
16F:→ lyxiang: 同一套提示词就那101种构图,很快就腻 12/01 16:00
17F:推 necrophagist: Turbo蒸馏模型就是这样 它要把结果很快收敛不然跑 12/01 16:02
18F:→ necrophagist: 不快 提示词不变只靠seed变不出多样性来 12/01 16:02
19F:推 ringil: 推分享 comfy我目前只用来作i2v 实在是习惯不了那个复杂 12/01 18:56
20F:→ ringil: 的环境 12/01 18:56
21F:推 iman00b: 最近也在玩z-image,真的强,一堆lora都出来了。 12/01 20:23
在我没关注的时候,原来有lora了! 想说还要等编辑版发布,结果lora先出来了~
22F:→ iman00b: GGUF我另外发文说明好了。 12/01 20:23
最近都在玩Qwen Image Edit 2509~12G跑的好轻松,跟flux2相比的话w
※ 编辑: avans (42.79.138.114 台湾), 12/01/2025 21:07:46
23F:推 iman00b: 因为文较长,我另外发GGUF心得。 12/01 21:18
24F:→ iman00b: Flux2 我直接放弃,太大了。 12/01 21:18