Stable Diffusion WebUI本地部署全步骤(含CUDA,cuDNN,Pytorch GPU版安装过程)(Win 11 + RTX5060)

部署SD WebUI前,先安装CUDA+cuDNN+Pytorch

电脑配置:

系统:windows 11

显卡:NVIDIA GeForce RTX 5060 Laptop GPU

内存:24G

下载版本:

CUDA:13.0

cuDNN:9.13.1

Pytorch:12.9

第一步:安装CUDA

步骤一:查看CUDA version

win+R输入cmd,在命令提示符窗口中输入nvidia-smi,查看CUDA Version

我的CUDA version 为13.0,所以我下载的版本为13.0的(也可以向下安装低版本的,我建议下载最新的版本)。
CUDA下载网址:https://developer.nvidia.com/cuda-toolkit-archive

本文以13.0的安装为例。

步骤二:下载CUDA安装包

打开网站后,选择13.0版本,点击箭头指向的位置。

跳转到下图页面

选择对应的选项,我的是win11系统,所以选择的11,如果你是win10系统,则选择10;

Installer Type可以是本地下载exe(local),也可以是exe(network),这里我选择的是exe(network),点击download即可

步骤三:运行安装包

双击运行

点“同意并继续”

选择自定义,然后点击下一步

点击下一步

这里的安装路径,可以放在C盘,也可以放在D盘,可以自定义路径,我是C盘空间不足,所以放到了D盘,路径选择好之后,点击下一步。

继续点击下一步

关闭

CUDA的安装完成

第二步:安装cuDNN

步骤一:下载cuDNN安装包

打开网址https://docs.nvidia.com/deeplearning/cudnn/backend/latest/index.html

点击cuDNN 9.13.1后下载安装包

双击运行安装包

下一步选择自定义,自定义路径选择D:\Program Files\NVIDIA\CUDNN\v9.13,然后下一步

点击关闭

cuDNN的安装完毕

第三步:安装Pytorch

步骤一:打开pytorch官网

打开pytorch官网:https://pytorch.org/get-started/locally/

下载stable版本的 CUDA 12.9
复制这串代码:pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

步骤二:全局环境下安装pytorch

注意,这里要在全局环境下安装pytorch,不要在虚拟环境下安装pytorch。

按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu129

pytorch安装成功

第四步:本地部署Stable Diffusion WebUI

 按win+R,输入cmd打开命令提示符,

输入D: ,进入D盘

输入git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

按下Enter回车

在D盘根目录下就有一个stable-diffusion-webui文件夹

然后在项目中创建一个虚拟python环境:

cd stable-diffusion-webui //进入刚才下载项目 python -m venv .\venv //创建一个虚拟python环境

创建完成以后,我们进入到venv目录中的Scripts文件夹,执行activate:

cd .\venv\Scripts .\activate.bat

执行完成后,Windows命令行会自动清屏(之前执行的所有命令及输出结果清空),首会出现“(venv)”的字样 ,表示我们已经进入了虚拟环境。

开始安装项目的依赖项:

cd ../.. pip install -r requirements_versions.txt

等待安装完成后,运行项目:

.\webui-user.bat

还需要修改一下 webui-user.bat 这个文件, 设置PYTHON路径安装的路径/stable-diffusion-webui\venv\Scripts\python.exe:

set PYTHON=G:\StableDiffusion\stable-diffusion-webui\venv\Scripts\python.exe

后边再启动,直接双击执行webui-user.bat即可,可以发送桌面快捷方式到桌面,后面再启动,可以直接在桌面启动。

Read more

Java Web 开发环境搭建:IDEA+Tomcat 安装与部署超详细教程

Java Web 开发环境搭建:IDEA+Tomcat 安装与部署超详细教程

在 Java Web 开发中,IDEA 作为主流的集成开发工具,搭配 Tomcat 轻量级 Web 服务器是入门首选。本文将基于 Java Web 基础开发要求,从 JDK 环境配置、Tomcat 安装配置、IDEA 安装、Web 项目创建,到 Tomcat 在 IDEA 中的部署运行,进行一步一图式详细讲解,零基础也能轻松上手。 一、前置准备:JDK 环境配置 Java Web 开发的核心基础是 JDK,Tomcat 和 IDEA 的运行都依赖 JDK 环境,需先完成 JDK 的安装与环境变量配置。 1. 下载与安装

前端模块化开发:从面条代码到结构化代码的蜕变

前端模块化开发:从面条代码到结构化代码的蜕变 毒舌时刻 模块化开发?不就是把代码分成几个文件嘛,有什么大不了的?我见过很多所谓的模块化代码,其实就是把一堆函数随便塞进不同的文件里,根本没有任何结构可言。 你以为把代码分成模块就万事大吉了?别天真了!如果你的模块设计不合理,反而会让代码变得更加混乱。比如那些互相依赖的模块,就像一团乱麻,让你根本理不清头绪。 为什么你需要这个 1. 代码可维护性:模块化代码结构清晰,易于理解和维护,当需要修改某个功能时,只需要修改对应的模块即可。 2. 代码复用:模块化可以让你在不同的项目中复用相同的代码,减少重复开发的工作量。 3. 团队协作:模块化可以让不同的开发者负责不同的模块,减少代码冲突和沟通成本。 4. 性能优化:模块化可以帮助你实现代码分割,减少初始加载时间,提高应用的性能。 反面教材 // 这是一个典型的面条代码 let users = []; let products = []; function fetchUsers() { fetch('https://api.example.com/

Seedance 2.0 完整操作手册:AI 视频创作进入人人都是导演时代

Seedance 2.0 完整操作手册:AI 视频创作进入人人都是导演时代

这两天,字节的AI视频模型Seedance 2.0 彻底出圈了 到处都是 Seedance 2.0 的生成AI作品 有人用它做出了电影级的追逐戏,有人用它复刻了广告大片的运镜,还有人拿它做古装穿越剧和各种武打动作片,画面精致到让人分不清是AI生成的还是真人拍的。 不夸张地说,Seedance 2.0 这波更新,直接把AI视频生成的门槛踩到了地板上。 为什么这么火?因为它解决了一个所有创作者都头疼的问题:以前AI视频只能"生成",现在终于能"控制"了。 用图片、视频、音频、文字自由组合,人人都能当导演   我们都知道,以前做 AI 视频,你只能打字描述想要什么画面,或者最多放一张图当起始帧。说实话,这种方式表达能力太有限了——你脑子里想的是电影级别的镜头感,打出来的却只是干巴巴的一段话。 现在不一样了。 它不再只是一个"文生视频&

video-subtitle-remover(VSR)-- 开源AI去字幕方案深度解析

video-subtitle-remover(VSR)-- 开源AI去字幕方案深度解析

一、从“硬字幕”说起:为什么我们需要 VSR? 在视频剪辑、二创和影视加工场景里,“硬字幕”(内嵌到画面里的字幕)一直是特别棘手的问题: * 你无法通过关闭字幕轨道来清除; * 直接裁剪会破坏画面构图; * 简单模糊/马赛克又会在画面上留下明显的“补丁”。 传统做法要么牺牲画质,要么牺牲效率。而开源项目 video-subtitle-remover(VSR),则直接把问题拉到了“AI 视频修复”的维度:用深度学习模型自动检测字幕区域,再通过图像修复算法把文字“擦掉”,并用背景自然填补。 项目核心信息(来自 README): * 功能定位:- 去除视频 / 图片中的硬字幕、文本水印 * 无损分辨率输出 * 支持自定义字幕区域,或全视频自动去除所有文本 * 技术特点:- 完全本地运行,无需调用第三方 API * 支持多种 GPU 加速(CUDA / DirectML