RTX 4070本地部署Stable Diffusion保姆级教程:从环境搭建到4K写实人像实战

RTX 4070本地部署Stable Diffusion保姆级教程:从环境搭建到4K写实人像实战

前言

最近换了一台 RTX 4070 (8G显存) 的笔记本,想着算力不能浪费,就折腾了一下本地部署 AI 绘画(Stable Diffusion)。

网上很多教程要么太老,要么就是让你装 Python、配 Git,环境报错能劝退 90% 的人。其实现在早就有“一键启动”的整合包了。

这篇文章不讲虚的理论,只记录我跑通的这套最稳的工作流。如果你也是 N 卡用户(推荐 3060 以上),照着做,半小时内就能画出超写实的 4K 美女图。 上效果

为了方便大家,我把文中用到的“启动器整合包”和“核心模型”都打包好了,链接放在文末,需要的自取。

一、 准备工作

1. 硬件要求

  • 显卡: 最好是 NVIDIA 显卡(N卡),显存建议 8G 起步。我的 4070 跑高清修复完全没压力。
  • 内存: 建议 16G 以上。
  • 硬盘: 至少预留 100G 空间(模型文件很大)。

2. 软件工具

千万别自己去 GitHub 下原版 WebUI,国内网络环境很难配置。 我使用的是 “秋叶(Aki)启动器”,它集成了运行环境,解压即用,非常适合新手。


二、 部署步骤(关键!)

很多朋友下载了软件却画不出好图,通常是模型没放对位置。请严格按照我的路径来放文件。

第一步:解压启动器

下载我提供的 sd-webui-aki-v4.10.7z 压缩包,解压到一个空间充足的盘符(不要有中文路径)。点击 A绘世启动器.exe 即可运行。

第二步:放置“大模型” (Checkpoint)

大模型决定了画风。如果你想画真人,千万别用软件自带的模型。 我测试下来效果最好的是 MajicMix Realistic (麦橘写实)

  • 文件后缀:.safetensors (通常 2G-4G 大小)
  • 存放路径:\sd-webui-aki-v4.10\models\Stable-diffusion(注意:是放在 Stable-diffusion 文件夹里,不要放错了)

第三步:放置 ControlNet 模型

这是用来控制人物动作的神器(可选,但建议装上)。

  • 文件特征: 文件名带 canny, openpose 等。
  • 存放路径:\sd-webui-aki-v4.10\models\ControlNet

三、 参数配置(作业直接抄)

打开 WebUI 界面后,不要用默认参数。这是我用 4070 测出来的最佳写实人像配置

1. 基础设置

  • 模型选择(左上角): 选中 majicMIX realistic
  • 采样方法 (Sampler):DPM++ 2M
  • 调度类型:Karras
  • 迭代步数 (Steps):30 (步数太低脸会崩)
  • 宽高设置:512 x 768 (竖屏构图,适合手机看)
  • 提示词引导系数 (CFG):7

2. 进阶:如何画出 4K 高清图?

默认生成的 512x768 图片放大看细节是不够的。一定要开启 Hires. fix (高清修复)

  • 勾选Hires. fix
  • 放大算法 (Upscaler):R-ESRGAN 4x+ (这个对皮肤纹理优化最好)
  • 高分迭代步数:13
  • 重绘幅度 (Denoising):0.4 (核心参数!超过 0.5 脸会变形,低于 0.3 没效果)
  • 放大倍率:2


四、 实测效果与提示词

不管是新手还是老手,Prompt(提示词)都很重要。分享一套我自用的“纯欲居家风”通用公式。

正向提示词 (Prompt): 直接复制进框里:

Plaintext

(masterpiece, best quality, 8k, highres, photo-realistic:1.4),raw photo,1girl,young,beautiful detailed face,(pure skin:1.2),soft smile,looking at viewer,wearing loose oversized white boyfriend shirt,(collarbone:1.1),messy tied hair,sitting on bed,cozy bedroom,morning light,sun rays,cinematic lighting,depth of field.,

反向提示词 (Negative Prompt): (防止画崩的通用词)

Plaintext

(worst quality:2, low quality:2, normal quality:2), lowres, bad anatomy, bad hands, missing fingers, extra digit, blurry, ugly, text, watermark. 

点击“生成”,你就能得到一张 1024x1536 的超高清写实人像。


五、 资源下载

为了防止大家找模型版本找错,我把**“秋叶启动器整合包”以及文中用到的“MajicMix 麦橘写实模型”**都打包放网盘了。

只要你电脑配置带得动,下载解压就能直接跑出文中的效果。

📂百度网盘链接

打开不开可以私信我,我会及时回复

Read more

Ollama Windows 安装与使用全指南:零配置本地运行 Llama、DeepSeek 等大模型,保障隐私与高效体验

Ollama Windows 安装与使用全指南:零配置本地运行 Llama、DeepSeek 等大模型,保障隐私与高效体验

Ollama Windows 安装与使用全指南:零配置本地运行 Llama、DeepSeek 等大模型,保障隐私与高效体验 * 🎯 核心摘要 * 一、环境准备与系统要求 * 二、安装 Ollama * 方法一:使用官方安装包(最简单,推荐新手) * 方法二:通过命令行安装(可选) * 三、基础使用:快速开始 * 1. 拉取并运行您的第一个模型 * 2. 常用模型管理命令 * 3. 模型选择建议 * 四、进阶应用 * 1. 使用 API 接口 * 2. 使用图形化界面(WebUI) * 五、常见问题与优化 🎯 核心摘要 Ollama 是一个开源工具,可让用户在 Windows 电脑上轻松运行 Llama、DeepSeek 等主流大语言模型。

By Ne0inhk

Llama-Factory的eval模块详解:准确率、困惑度等指标一览

Llama-Factory的eval模块详解:准确率、困惑度等指标一览 在大语言模型(LLM)快速迭代的今天,微调已不再是少数研究团队的专属技术。越来越多的企业和开发者希望基于开源模型定制自己的智能应用——从金融客服到医疗问答,从教育辅导到内容生成。然而,一个常被忽视的问题是:我们如何科学地判断一个微调后的模型真的“变好了”? 答案并不总是显而易见。你可能训练了几十个epoch,loss曲线一路下降,但最终生成的回答却越来越模板化;或者准确率高达90%,但在真实场景中仍然频繁出错。这些问题的背后,是对评估环节的轻视。 正是在这样的背景下,Llama-Factory 的 eval 模块显得尤为关键。它不仅仅是一个“跑个测试集出个分数”的工具,而是将模型评估系统化、标准化、自动化的关键组件。通过统一接口支持多种任务与指标,它让不同模型、不同训练策略之间的比较成为可能,也让实验结果更具可复现性。 准确率:简单却不容小觑的基础指标 说到评估,最直观的指标莫过于准确率(Accuracy)。它的定义极其朴素:预测正确的样本数占总样本的比例。公式也简洁明了: $$ \text{Accur

By Ne0inhk
从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

文章目录 * 从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南 💻✨ * 一、语法纠错:Copilot 如何成为你的“实时校对员” ✅ * 示例 1:自动修复缩进错误 * 示例 2:括号/引号自动闭合与修复 * 示例 3:类型注解缺失的智能补充 * 实战技巧:结合 Linter 使用 Copilot * 二、代码生成:从单行补全到完整函数实现 🧠⚡ * 示例 4:用注释驱动函数生成 * 示例 5:生成单元测试 * 示例 6:异步 HTTP 请求生成 * 三、调试辅助:Copilot 如何帮你“读懂”错误信息 🐞🔍 * 场景:遇到 `KeyError` 怎么办? * 场景:

By Ne0inhk