Windows 本地运行 DeepSeek 的三步配置指南
步骤 0:安装 Docker 桌面
很多人可能已经安装了 Docker,如果没有,请访问 Docker 官方网站下载并运行安装程序。如果需要特定设置(如使用 WSL),请参考相关指导视频。
步骤 1:安装 CUDA 以获得 GPU 支持
若要在 Windows 上使用 NVIDIA 显卡运行大语言模型(LLM),必须安装 CUDA 驱动程序。
- 打开 CUDA 下载页面。
- 选择"Windows"及其他选项,将安装程序类型设置为"本地"。
- 下载并完成安装,完成后需要重启计算机。
步骤 2:安装 Ollama 并下载模型
Ollama 是一款开源 AI 工具,允许用户在本地设备上运行大型语言模型。
- 访问 Ollama 网站并下载安装程序。
- 安装后,打开 Windows PowerShell。
- 运行
ollama -v验证安装是否成功。 - 再次访问 Ollama 网站,选择所需的模型(例如 DeepSeek 7b)。
- 复制命令并在 PowerShell 中运行以下载模型。
- 模型下载完成后将启动 Shell,您可以直接在此聊天。输入
/bye退出 Shell,继续下一步设置图形界面。
步骤 3:安装 Open-WebUI
Open-WebUI 提供了类似 ChatGPT 的用户界面,支持 RAG、图像生成等功能。
- 访问 Open-WebUI GitHub 页面。
- 找到"Open WebUI with Nvidia GPU support"命令。
- 复制该命令并在 PowerShell 中运行。这将下载所需的 Docker 镜像并运行容器。
- 通过浏览器访问 http://localhost:3000/ 即可使用。
左侧边栏用于聊天,左上角可选择已安装的模型。更多功能详情可参考官方文档。


