环境准备
在开始之前,请以管理员身份打开 PowerShell(按下 Win + X 选择)。这是我们接下来的操作中心。
1. 安装 Node.js (v18+)
Node.js 是 OpenClaw 的运行环境,安装它时 npm 会自动就位。
- 访问 Node.js 官网,下载 LTS (长期支持) 版本的 Windows 安装包 (.msi)。
- 双击运行安装程序。关键步骤:在自定义安装界面,务必勾选
Add to PATH。 - 一路 Next 完成安装。
验证:在 PowerShell 中输入以下命令,若显示版本号(如 v18.x.x),则成功。
node -v && npm -v
2. 安装 Git
Git 用于管理代码和扩展技能,是生态的重要组成部分。
- 访问 Git 官网 下载 Windows 版安装包。
- 运行安装程序,建议保持所有默认选项,特别是确保将 Git 添加到系统 PATH 中。
验证:在 PowerShell 中输入命令,若显示版本信息则成功。
git --version
部署 Ollama (本地模型引擎)
Ollama 是你的本地模型管家,负责承载 AI 的'大脑'。
1. 安装与配置
- 访问 Ollama 官网 下载 Windows 版本并安装。
- 环境变量配置 (推荐):为了让模型响应更快,避免重复加载,建议设置模型常驻内存。
- 按下
Win键,搜索'环境变量',点击「编辑系统环境变量」 -> 「环境变量」。 - 在'系统变量'中点击「新建」:
- 变量名:
OLLAMA_KEEP_ALIVE - 变量值:
24h
- 变量名:
- 按下
2. 下载核心模型
很多用户报错 file does not exist 是因为模型标签过旧或拼写错误。请使用以下绝对可用的命令:
首选通用命令 (推荐): 直接运行以下命令,Ollama 会自动匹配并下载一个性能均衡的量化版通义千问模型(约 5-6GB)。
ollama run qwen:8b-instruct-q4_K_M
解释:
q4_K_M是目前兼容性最好的量化格式,在 8GB 显存的设备上也能流畅运行,完美替代了之前可能遇到的q4_0。
备选方案 (国内镜像): 如果官网下载速度慢或失败,可以尝试国内开发者维护的镜像:
ollama run dengcao/qwen:8b-q4_0

