Z-Image-Turbo WebUI 本地部署指南
为什么选择 Z-Image-Turbo?
Z-Image-Turbo 是基于阿里通义实验室发布的先进扩散模型进行二次优化的图像生成系统,由开发者整合封装为易用的 WebUI 工具。其核心优势包括:
- 极速推理:支持 1 步生成,单张图像最快 2 秒内完成
- 高分辨率输出:原生支持 1024×1024 及以上尺寸
- 中文提示词友好:对中文描述理解能力强,无需英文翻译
介绍如何在本地环境快速部署阿里通义 Z-Image-Turbo WebUI 图像生成系统。涵盖硬件软件要求、Conda 环境搭建、ModelScope 模型下载、服务启动命令及参数说明。包含批量生成优化、API 集成示例及常见故障排查方案(如显存溢出、端口占用)。适用于具备基础 Linux 操作能力的开发者进行本地 AI 绘图服务搭建。
Z-Image-Turbo 是基于阿里通义实验室发布的先进扩散模型进行二次优化的图像生成系统,由开发者整合封装为易用的 WebUI 工具。其核心优势包括:
本指南将带你从零开始,在本地环境完成从代码拉取到 Web 界面访问的全流程。
| 组件 | 最低要求 | 推荐配置 |
|---|---|---|
| GPU | NVIDIA GTX 1660 (6GB) | RTX 3090 / A100 (24GB+) |
| 显存 | ≥8GB | ≥16GB |
| CPU | 四核以上 | 八核以上 |
| 内存 | 16GB | 32GB |
| 存储 | 50GB 可用空间(SSD) | 100GB+ NVMe SSD |
注意:若显存低于 12GB,建议使用 768×768 或更低分辨率以避免 OOM(内存溢出)。
# 安装基础工具
sudo apt update && sudo apt install -y git wget curl htop screen
git clone https://github.com/kege/Z-Image-Turbo-WebUI.git
cd Z-Image-Turbo-WebUI
提示:该项目为开源社区二次开发版本,原始模型来自 ModelScope Tongyi-MAI/Z-Image-Turbo。
# 初始化 conda(如未配置)
source /opt/miniconda3/etc/profile.d/conda.sh
# 创建 torch28 环境(Python 3.10 + PyTorch 2.0+)
conda create -n torch28 python=3.10 -y
conda activate torch28
# 安装 PyTorch(根据 CUDA 版本选择)
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia -y
pip install -r requirements.txt
常见关键依赖:
Z-Image-Turbo 使用 ModelScope 平台托管的大模型文件,需通过官方 SDK 下载。
pip install modelscope
# 若需要 token,请前往 https://modelscope.cn 获取
modelscope login
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
# 自动触发模型下载至 ~/.cache/modelscope/hub/
pipe = pipeline(Tasks.text_to_image_synthesis, 'Tongyi-MAI/Z-Image-Turbo')
首次运行会自动下载以下组件:
模型默认缓存路径:~/.cache/modelscope/hub/Tongyi-MAI/Z-Image-Turbo
bash scripts/start_app.sh
该脚本内部执行逻辑如下:
#!/bin/bash
source /opt/miniconda3/etc/profile.d/conda.sh
conda activate torch28
export PYTHONPATH=./
python -m app.main --host 0.0.0.0 --port 7860
适用于排查错误或自定义参数:
conda activate torch28
python -m app.main \
--host 0.0.0.0 \
--port 7860 \
--device cuda:0 \
--enable-xformers \
--precision float16
| 参数 | 说明 |
|---|---|
| --host | 绑定 IP 地址,0.0.0.0 表示允许外部访问 |
| --port | HTTP 服务端口,默认 7860 |
| --device | 指定 GPU 设备,如 cuda:0 |
| --precision | 计算精度,float16 节省显存 |
| --enable-xformers | 启用 xFormers 优化注意力机制 |
当终端出现以下日志时,表示服务已就绪:
==================================================
Z-Image-Turbo WebUI 启动中...
==================================================
[INFO] 加载模型中:Tongyi-MAI/Z-Image-Turbo
[INFO] 使用设备:CUDA:0 (NVIDIA A100)
[INFO] 模型加载成功!耗时 186.4s
[INFO] 启动服务器:0.0.0.0:7860
👉 请访问:http://localhost:7860
首次加载模型约需 2-4 分钟(取决于磁盘 IO 速度),后续重启可缩短至 10 秒内。
打开浏览器,输入:
http://<你的服务器 IP>:7860
例如本地测试:
http://localhost:7860
你将看到主界面。
| 字段 | 推荐写法 |
|---|---|
| 正向提示词 | '一只橘色猫咪,坐在窗台,阳光洒落,高清照片' |
| 负向提示词 | '模糊,低质量,多余手指,扭曲' |
| 宽度/高度 | 建议 1024×1024(必须是 64 的倍数) |
| 推理步数 | 日常使用 40 步,高质量输出 60 步 |
| CFG 引导强度 | 推荐 7.0~9.0 之间 |
| 随机种子 | -1 表示随机,固定值可复现结果 |
点击即可一键设置常用比例:
此页面展示系统运行状态,包含:
实用技巧:若发现 GPU 未被识别,请检查 nvidia-smi 输出及 PyTorch 安装是否正确。
查看项目版权、开发者信息与更新日志。
修改 app/main.py 中的默认参数,支持一次生成多张图像:
# 在 generate 函数中调整 num_images
output_paths, gen_time, metadata = generator.generate(
prompt=prompt,
negative_prompt=negative_prompt,
width=1024,
height=1024,
num_inference_steps=40,
seed=-1,
num_images=4, # 一次性生成 4 张
cfg_scale=7.5
)
显存警告:生成 4 张 1024×1024 图像需至少 14GB 显存。
可用于自动化任务或与其他系统对接:
# api_example.py
from app.core.generator import get_generator
def batch_generate(prompts):
generator = get_generator()
results = []
for prompt in prompts:
try:
paths, time_cost, meta = generator.generate(
prompt=prompt,
negative_prompt="low quality, blurry",
width=1024,
height=1024,
num_inference_steps=40,
num_images=1,
seed=-1
)
results.append({
"prompt": prompt,
"output": paths[0],
"time": f"{time_cost:.2f}s"
})
except Exception as e:
results.append({"error": str(e)})
return results
# 使用示例
prompts = [
"樱花树下的少女,动漫风格",
"未来城市夜景,赛博朋克,霓虹灯",
"雪山湖泊,清晨薄雾,摄影风格"
]
results = batch_generate(prompts)
for r in results:
print(r)
运行命令:
python api_example.py
现象:生成时报错 RuntimeError: CUDA out of memory
解决方法:
python -m app.main --precision float16 --enable-xformers
排查步骤:
ps aux | grep pythonlsof -ti:7860bash scripts/start_app.sh > webui.log 2>&1 & tail -f webui.logsudo ufw allow 7860可能原因:
解决方案:
mkdir -p ~/.cache/modelscope/hub/Tongyi-MAI/Z-Image-Turbo
# 将 modelscope 下载的文件复制至此
export MODELSCOPE_CACHE=/your/large/disk/modelscope_cache
所有生成图像自动保存在:
./outputs/
命名格式:outputs_YYYYMMDDHHMMSS.png
例如:
outputs_20260105143025.png
可通过脚本定期归档:
# daily_backup.sh
DATE=$(date +%Y%m%d)
mkdir -p backups/$DATE
cp outputs/*.png backups/$DATE/
[用户浏览器]
↓
HTTPS (Nginx)
↓
[Gradio WebUI]
↓
[GPU 服务器 · Docker 容器]
↓
[ModelScope 模型缓存 · SSD 存储]
nginx location / {
proxy_pass http://127.0.0.1:7860;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
}
demo.launch(auth=("admin", "your_password"), ...)
--host 192.168.1.100 # 仅绑定内网 IP
已完成事项核对表:
| 步骤 | 是否完成 |
|---|---|
| 1. 克隆 GitHub 仓库 | ☐ |
| 2. 配置 Conda 环境 | ☐ |
| 3. 安装 PyTorch 与依赖 | ☐ |
| 4. 下载 Z-Image-Turbo 模型 | ☐ |
| 5. 启动 WebUI 服务 | ☐ |
| 6. 浏览器访问验证 | ☐ |
| 7. 成功生成第一张图像 | ☐ |

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online