RTX 5090 部署 Stable Diffusion WebUI 实战指南
介绍在 Linux 环境下使用 RTX 5090 显卡部署 Stable Diffusion WebUI 的完整流程。涵盖环境配置、依赖安装、WebUI 启动及基础使用,提供性能优化与故障排查方案,帮助开发者快速搭建 AI 绘图工作流。

介绍在 Linux 环境下使用 RTX 5090 显卡部署 Stable Diffusion WebUI 的完整流程。涵盖环境配置、依赖安装、WebUI 启动及基础使用,提供性能优化与故障排查方案,帮助开发者快速搭建 AI 绘图工作流。

Stable Diffusion 属于图形密集型任务,对显存要求较高。使用配备高端 GPU(如 RTX 5090)的云端环境具有以下优势:
SD-WebUI-RTX5090推荐使用 SSH 客户端或 Web Shell 登录。验证基础环境:
# 检查 Python 版本
python3 --version
# 检查 CUDA 版本
nvcc --version
# 检查 GPU 状态
nvidia-smi
正常输出应显示 Python 3.10+、CUDA 12.x 及显卡信息。
步骤 1:清理冲突环境
# 卸载可能冲突的包
pip3 uninstall -y torch torchvision torchaudio xformers diffusers transformers
# 清理缓存
rm -rf /root/.cache/pip
pip3 install --upgrade pip
pip3 cache purge
步骤 2:安装 PyTorch 与基础依赖
# 安装适配 CUDA 12.8 的 PyTorch
pip3 install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 \
--index-url https://download.pytorch.org/whl/cu128 \
-i https://pypi.tuna.tsinghua.edu.cn/simple
# 安装图像处理库
pip3 install numpy==1.26.4 pillow==10.3.0 opencv-python==4.9.0.80 \
-i https://pypi.tuna.tsinghua.edu.cn/simple
步骤 3:安装核心依赖
# HuggingFace 相关库
pip3 install transformers accelerate diffusers -i https://pypi.tuna.tsinghua.edu.cn/simple
# Web 界面框架
pip3 install gradio==3.41.2 fastapi==0.104.1 uvicorn==0.24.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
# 性能优化插件
pip3 install xformers -i https://pypi.tuna.tsinghua.edu.cn/simple
步骤 1:克隆源码
apt update && apt install -y git wget
git clone https://gitee.com/mirrors/stable-diffusion-webui.git /root/sd-webui
cd /root/sd-webui
步骤 2:创建模型目录
mkdir -p /root/sd-webui/models/Stable-diffusion
mkdir -p /root/sd-webui/models/Lora
mkdir -p /root/sd-webui/models/VAE
mkdir -p /root/sd-webui/models/ControlNet
mkdir -p /root/sd-webui/outputs
步骤 3:下载基础模型
# 使用国内镜像加速下载 SDXL 基础模型
wget -O /root/sd-webui/models/Stable-diffusion/sd_xl_base_1.0.safetensors \
https://hf-mirror.com/stabilityai/stable-diffusion-xl-base-1.0/resolve/main/sd_xl_base_1.0.safetensors
创建 start_sd.sh:
cat > /root/sd-webui/start_sd.sh << 'EOF'
#!/bin/bash
cd /root/sd-webui
export PYTHONPATH="/root/sd-webui:$PYTHONPATH"
export HF_HOME="/root/.cache/huggingface"
python3 launch.py \
--listen \
--port 7860 \
--xformers \
--enable-insecure-extension-access \
--medvram \
--no-half-vae \
--skip-torch-cuda-test \
--skip-version-check \
--update-check
EOF
chmod +x /root/sd-webui/start_sd.sh
启动服务:
cd /root/sd-webui
./start_sd.sh
配置后台运行:
为避免断开连接后服务停止,可使用 nohup:
cat > /root/sd-webui/start_sd_background.sh << 'EOF'
#!/bin/bash
cd /root/sd-webui
nohup python3 launch.py \
--listen \
--port 7860 \
--xformers \
--enable-insecure-extension-access \
--medvram \
--no-half-vae \
> /root/sd-webui/webui.log 2>&1 &
echo "WebUI 已启动"
EOF
chmod +x /root/sd-webui/start_sd_background.sh
./start_sd_background.sh
等待终端显示 Running on local URL: http://0.0.0.0:7860 即表示成功。
获取服务器公网 IP,在本地浏览器打开:
http://你的公网 IP:7860
sd_xl_base_1.0.safetensorsmasterpiece, best quality, 8k resolution, cyberpunk cityscapelow quality, worst quality, bad anatomy, blurry通过 Extensions 标签页 -> Available -> Load from URL 输入地址:
https://github.com/dtlnor/stable-diffusion-webui-localization-zh_CNhttps://github.com/DominikDoom/a1111-sd-webui-tagcomplete编辑 webui-user.sh 添加参数:
export COMMANDLINE_ARGS="--listen --xformers --opt-split-attention --no-half-vae --medvram"
ps aux | grep python 及端口占用 netstat -tlnp | grep 7860。--medvram 参数,关闭其他进程。# 查看日志
tail -f /root/sd-webui/webui.log
# 查看 GPU 使用情况
watch -n 1 nvidia-smi
# 备份模型
tar -czf sd_backup.tar.gz /root/sd-webui/models/
本教程介绍了在 Linux 环境下利用高性能 GPU 部署 Stable Diffusion WebUI 的完整流程。通过合理的依赖管理与启动参数配置,可实现快速搭建与稳定运行,满足 AI 绘图工作流需求。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online