从零部署 Ollama + Qwen 3.5 + OpenClawbot 本地 AI 助手
本文旨在帮助你在单机上完成 Ollama + Qwen 3.5 + OpenClaw 的整套环境部署,并验证正常聊天功能。内容侧重于命令操作、配置说明与排错,适合边看边敲。
一、整体架构先说清楚
这一套技术栈中各组件的分工如下:
如何在本地单机环境部署 Ollama、Qwen 3.5 模型及 OpenClawbot 智能代理。步骤包括安装 Ollama 引擎,拉取 Qwen 3.5 模型,通过 npm 安装 OpenClaw,配置 config.yaml 连接本地 API,最后启动网关与终端界面实现对话。同时提供了接入 Telegram 的可选方案及常见问题排查方法,适合开发者快速搭建本地免费 AI 助手。
本文旨在帮助你在单机上完成 Ollama + Qwen 3.5 + OpenClaw 的整套环境部署,并验证正常聊天功能。内容侧重于命令操作、配置说明与排错,适合边看边敲。
这一套技术栈中各组件的分工如下:
qwen3.5-0.8b),在 Ollama 里运行简单理解为:
用户 → OpenClawbot → Ollama API (http://localhost:11434) → Qwen 3.5 模型
部署顺序为:
如果只是想体验,用一台 8G 内存的笔记本即可跑通。
Ubuntu 一键安装:
sudo apt update && sudo apt install -y curl nodejs npm git
macOS 建议先装 Homebrew,再执行:
brew install node git
# curl 一般自带
官方安装脚本(macOS / Linux):
curl -fsSL https://ollama.com/install.sh | sh
Windows 则去官网下载安装包,或者在 WSL2 Ubuntu 里使用上面的命令。
ollama --version
看到类似 ollama version 0.17.0 即表示 OK。
大多数系统安装后会自动以守护进程方式运行,你可以手动确认:
# 查看 11434 端口是否在监听(Linux)
ss -lntp | grep 11434
# 或简单 curl 一下
curl http://localhost:11434
如果返回类似 {"models": [...]},说明 Ollama 服务正常在 http://localhost:11434 运行。
为了兼顾效果和能跑得动,推荐使用:
qwen3.5-0.8b:只有 0.8B 参数,可以在纯 CPU 上跑,占空间大概 1GB 左右
适合入门 / VPS / 老电脑如果你的 GPU 和内存都比较强,也可以尝试更大的版本(14B 等),但本篇先以 0.8B 为主。
ollama pull qwen3.5-0.8b
耐心等待下载完成。
ollama run qwen3.5-0.8b "用一句话介绍一下你自己。"
如果能正常回答,说明:
说明:目前社区普遍说的'OpenClawbot',本质上就是基于 OpenClaw 做的一套机器人/代理配置,这里统一用 OpenClaw 命令来装和配。
npm install -g openclaw
如果报权限问题,可以用:
sudo npm install -g openclaw
安装完成后,执行:
openclaw --version
能看到版本号就说明装好了。
Ollama 官方文档提到,可以直接通过:
ollama launch openclaw --model qwen3.5-0.8b
来触发自动检查与安装。如果你偏向'自动化安装',可以考虑这条路线;如果你想'自己掌控配置',建议用 npm install -g openclaw 再手动改配置文件。
下面配置一节按'手动可控'路线讲解。
OpenClaw 的核心配置在一个 config.yaml 里(默认在 ~/.config/openclaw/config.yaml)。
先看一下有没有默认配置目录:
ls ~/.config/openclaw
如果不存在,就自己创建:
mkdir -p ~/.config/openclaw
nano ~/.config/openclaw/config.yaml
# 或 vim / code 打开都行
例如:
gateway:
host: 127.0.0.1
port: 3000
providers:
ollama:
type: ollama
base_url: http://localhost:11434
model: qwen3.5-0.8b
agents:
default:
provider: ollama
system_prompt: >
你是一个中文 AI 助手,回答要简洁、友好,可以适当给出示例。
channels:
terminal:
enabled: true
type: terminal
关键点:
base_url 必须指向你本机的 Ollama 接口,一般就是 http://localhost:11434model 字段要与 ollama list 里显示的 完全一致,区分大小写与横杠agents.default.provider 对应上方 providers 中你起的名字(这里是 ollama)OpenClaw 一般会提供简单检查命令,你可以先直接尝试运行(有错误会提示)。
# 更新网关(如有必要)
openclaw gateway update
# 重启网关,使最新配置生效
openclaw gateway restart
如果你遇到 token 相关提示(例如'unauthorized token'),可以创建/配置 token:
openclaw token create
openclaw gateway restart
openclaw tui
成功的话,你会看到一个基于 TUI 的聊天界面(类似一个终端聊天窗口),此时输入一句中文:
你:帮我列一个今天的工作待办清单
几秒后能看到 Qwen 3.5 的回复,就说明:
到这里,一个本地终端版的 Qwen 3.5 OpenClawbot 已经部署完成。
很多教程会在这一步把 OpenClawbot 接入 Telegram,形成一个真正的'聊天机器人'。这里只简单带一下部署关键点。
@BotFather/newbot 按提示创建机器人123456789:ABC-... 的 Bot Token方式一:用交互式配置向导:
openclaw configure
大致流程:
channelstelegram方式二:直接在 config.yaml 增加:
channels:
terminal:
enabled: true
type: terminal
telegram:
enabled: true
type: telegram
bot_token: YOUR_TELEGRAM_BOT_TOKEN
然后重启网关:
openclaw gateway restart
此时在 Telegram 中给你的 Bot 发消息,应该就能看到由 Qwen 3.5 驱动的回复了(消息也会在 TUI 里同步显示)。
排查步骤:
重启网关再试:
openclaw gateway restart
确保 config.yaml 中的:
providers:
ollama:
model: qwen3.5-0.8b
与 ollama list 里的 tag 完全一致(包括点、横线、大小写)。
先看 Ollama 里到底有什么模型:
ollama list
qwen3.5-0.8b,避免一上来就拉大模型screen 或 tmux 把进程常驻后台说明 OpenClaw 的网关启用了一些 token 校验:
openclaw token create
openclaw gateway restart
按提示生成 token 并更新配置即可。
你可以写一个简单脚本,让自己每次启动更轻松。
例如 start_openclaw_qwen.sh:
#!/bin/bash
openclaw gateway restart
openclaw tui
赋予执行权限:
chmod +x start_openclaw_qwen.sh
之后只要:
./start_openclaw_qwen.sh
就能直接进到聊天界面。
到目前为止,你已经完成了:
config.yaml,让 OpenClaw 通过 Ollama 调 Qwen 3.5;
微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online