部署环境
- 硬件环境:Apple M3 Pro
- 模型:Qwen3.5:9b
- 软件:OpenClaw、Ollama
部署 Ollama
- 打开一个新的终端,输入以下命令安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
- 运行 Ollama 并与 Llava 聊天:
ollama run llava
启动成功后,Ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost:11434 访问。
部署 OpenClaw
- 一键部署 OpenClaw + Qwen3.5:9b
ollama launch openclaw --model qwen3.5:9b
程序会自动部署 OpenClaw 与 Qwen。
- 安全提示选择 yes。
安装成功进入如下界面,即可以通过命令行与 OpenClaw 对话。
- 启动 WebUI(可选)
默认情况下是启用 CTL 方式,启动 openclawtui 需要配置 Gateway。
在命令行中输入:
openclaw config选择 gateway,如下是配置过程:
- Select sections to configure
- Gateway
- Gateway port
- 18789
- Gateway bind mode
- Loopback (Local only)
- Gateway auth
- Token
- Tailscale exposure
- Off
- Gateway token (blank to generate)
将生成的 token 粘贴下来,登录 http://127.0.0.1:18789/overview,将 token 配置网关令牌页面。
配置完成即可通过 TUI 与 openclawd 对话了。
附录:更好本地模型方法
Ollama 提供了封装好的命令,可以直接替换 OpenClaw 使用的 Ollama 模型:ollama launch openclaw --model <模型名称>
如将 OpenClaw 模型更换成 Ollama 上运行的 qwen3.5:27b,则执行如下命令:
ollama launch openclaw --model qwen3.5:27b

