最近 AI 绘图圈又迎来了一个重磅炸弹!阿里通义万相团队正式开源了最新的 Qwen-Image-2.5 模型。
相比于之前的版本,这次的升级在图像真实感、细节纹理以及最让人头疼的“文字渲染”能力上都有了质的飞跃。最重要的是,它是完全开源免费的!这意味着只要你的显卡跑得动,你就拥有了一个属于自己的、无限生成的 Midjourney 平替。
今天分享的这期 零度解说 的视频,非常详细地演示了从环境搭建到最终出图的全过程。如果你是 AI 绘图的新手,或者想尝试本地部署 ComfyUI,这期教程绝对值得收藏。
视频重点笔记 & 安装路线图
为了方便大家操作,我根据视频内容整理了以下简易版的安装流程,建议大家一边看视频一边对照操作:
1. 核心亮点
画质提升: 大幅减少了 AI 生成的“塑料感”,皮肤和自然风景的纹理更加真实。
文本能力: 以前 AI 很难在图里写对字,现在 Qwen-Image-2.5 的文本渲染准确率大大提高。
多比例支持: 完美支持 16:9, 9:16, 1:1, 4:3 等各种主流分辨率,不再局限于正方形。
2. 本地部署简易步骤 (Windows) 视频中使用了 ComfyUI 进行部署,主要步骤如下:
环境准备:
安装 ComfyUI:
下载并解压 ComfyUI 整合包(视频中推荐了秋叶启动器或官方包)。
注意: 推荐使用 NVIDIA 显卡 (N卡) 以获得最佳加速效果。
下载模型文件 (关键):
需要下载 4 个核心文件:VAE 解码器、文本编码器 (Text Encoder)、Qwen 主模型 (fp8或bf16版本)、LoRA 加速模型。
将这些文件放入 ComfyUI 对应的
models文件夹中。
加载工作流:
将视频提供的 JSON 工作流文件拖入 ComfyUI 界面。
点击 "Queue Prompt" 即可开始生图!
文本编码器
LoRa(可选 – 用于 4 步 Lightning 加速)
扩散模型
- qwen_image_2512_fp8_e4m3fn.safetensors(推荐大多数用户使用)
- qwen_image_2512_bf16.safetensors(如果您有足够的显存并且想要更高的图像质量)
VAE
相关资源下载
ComfyUI 最新下载地址: [点击前往]
Qwen-Image-2.5 模型下载: [点击前往]
看完视频实测,Qwen-Image-2.5 在生成人像(尤其是亚洲面孔)时的自然度确实非常惊人。虽然本地部署对显卡显存有一定要求(建议 12G 显存以上体验最佳,8G 需使用 FP8 量化版),但考虑到这是完全免费、隐私安全且无审查的本地生成,这点硬件门槛是绝对值得跨越的。
如果你觉得本地安装太麻烦,视频后半部分也提到了在线体验的方法,大家可以去试试。