从零部署 Ollama + Qwen 3.5 + OpenClawbot:在本地跑起来你的免费 AI 助手

这篇文章只干一件事:

帮你在一台机器上,把 Ollama + Qwen 3.5 + OpenClaw(OpenClawbot) 整套环境部署起来,并验证能正常聊天。

不讲太多概念,更多是命令 + 配置 + 排错,适合你边看边敲。


一、整体架构先说清楚

这一套技术栈里,各组件的分工是:

  • Ollama:本地大模型运行引擎,相当于“模型服务端”
  • Qwen 3.5:具体的大模型(如 qwen3.5-0.8b),在 Ollama 里跑
  • OpenClaw / OpenClawbot:在上面封一层“智能代理 + 多通道机器人”(终端、Telegram、后面你也可以接微信等)

简单理解为:

你/用户  →  OpenClawbot  →  Ollama API(http://localhost:11434)  →  Qwen 3.5 模型

所以部署顺序是:

  1. 安装并启动 Ollama
  2. 在 Ollama 里拉起 Qwen 3.5 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 配置 OpenClaw 使用 Ollama+Qwen 3.5
  5. 启动,确认可以正常对话

二、环境与准备

1. 操作系统和硬件建议

  • 系统
    • 推荐:macOS / Ubuntu 20.04+ / 22.04+
    • Windows:建议用 WSL2 + Ubuntu 跑 Ollama 和 OpenClaw
  • 硬件(跑 Qwen 3.5 0.8B 这种小模型):
    • CPU:4 核以上
    • 内存:8GB 起
    • 磁盘:预留 10GB+
    • GPU:可选;没有 GPU 也能跑 0.8B 模型

如果你只是想先体验一把,用一台 8G 内存的笔记本就能跑通。

2. 需要的软件

  • curl(拉安装脚本)
  • Node.js + npm(用来装 OpenClaw)
  • git(可选,用于看 OpenClaw 源码)

Ubuntu 一键装:

sudo apt update sudo apt install -y curl nodejs npm git

macOS 建议先装 Homebrew,再:

brew install node git
# curl 一般自带

三、第一步:安装并验证 Ollama

1. 安装 Ollama

官方安装脚本(macOS / Linux):

curl -fsSL https://ollama.com/install.sh | sh

Windows 则去官网下安装包,或者在 WSL2 Ubuntu 里用上面的命令。

2. 验证 Ollama 安装

ollama --version

能看到类似:

ollama version 0.17.0

说明 OK。

3. 启动 Ollama 服务

大多数系统装好后会自动以守护进程方式运行,你可以手动确认下:

# 看看 11434 端口是否在监听(Linux) ss -lntp | grep 11434 # 或简单 curl 一下 curl http://localhost:11434

如果返回类似:

{"models":[...]}

那说明 Ollama 服务正常在 http://localhost:11434 跑着。


四、第二步:在 Ollama 中拉取 Qwen 3.5 模型

1. 选择合适的 Qwen 3.5 版本

为了兼顾效果和能跑得动,很推荐文章里提到的:

  • qwen3.5-0.8b:只有 0.8B 参数,可以在纯 CPU 上跑,占空间大概 1GB 左右[1]
    适合入门 / VPS / 老电脑

如果你的 GPU 和内存都比较强,也可以尝试更大的版本(14B 等),但本篇先以 0.8B 为主。

2. 拉取模型

ollama pull qwen3.5-0.8b

耐心等下载完成。

3. 在命令行直接试一下模型

ollama run qwen3.5-0.8b "用一句话介绍一下你自己。"

如果能看到模型正常回答,说明:

  • Ollama 安装 OK
  • Qwen 3.5 模型拉取 OK
  • 本地推理能力没问题

五、第三步:安装 OpenClaw / OpenClawbot

说明:目前社区普遍说的“OpenClawbot”,本质上就是基于 OpenClaw 做的一套机器人/代理配置,这里统一用 OpenClaw 命令来装和配。

1. 通过 npm 全局安装 OpenClaw

npm install -g openclaw

如果报权限问题,可以用:

sudo npm install -g openclaw

安装完成后,执行:

openclaw --version

能看到版本号就说明装好了。

2.(可选)用 Ollama 的一键命令安装

Ollama 官方文档里提到,可以直接通过:

ollama launch openclaw --model qwen3.5-0.8b

来触发:

  1. 检查本机是否有 OpenClaw
  2. 如果没有,会提示并自动帮助安装配置一套推荐模型和插件[2]

如果你偏向“自动化安装”,可以考虑这条路线;
如果你想“自己掌控配置”,建议用 npm install -g openclaw 再手动改配置文件。

下面配置一节按“手动可控”路线讲。


六、第四步:配置 OpenClaw 连接 Ollama + Qwen 3.5

OpenClaw 的核心配置在一个 config.yaml 里(默认在 ~/.config/openclaw/config.yaml)。

1. 找到/创建配置文件

先看一下有没有默认配置目录:

ls ~/.config/openclaw

如果不存在,就自己创建:

mkdir -p ~/.config/openclaw
nano ~/.config/openclaw/config.yaml
# 或 vim / code 打开都行

2. 写入一个最小可用配置(终端机器人版)

例如:

gateway: host: 127.0.0.1 port: 3000 providers: ollama: type: ollama base_url: http://localhost:11434 # Ollama 默认 API 地址 model: qwen3.5-0.8b # 和你用 ollama pull 的 tag 一致 agents: default: provider: ollama system_prompt: > 你是一个中文 AI 助手,回答要简洁、友好,可以适当给出示例。 channels: terminal: enabled: true type: terminal

关键点:

  • base_url 必须指向你本机的 Ollama 接口,一般就是 http://localhost:11434
  • model 字段要与 ollama list 里显示的 完全一致,区分大小写与横杠[1]
  • agents.default.provider 对应上方 providers 中你起的名字(这里是 ollama

3. 检查配置是否正确

OpenClaw 一般会提供简单检查命令,你可以先直接尝试运行(有错误会提示)。


七、第五步:启动 OpenClaw 网关与 TUI(终端界面)

下面命令是来自社区实战博客的典型用法流程[1]。

1. 更新并启动网关

# 更新网关(如有必要)
openclaw gateway update

# 重启网关,使最新配置生效
openclaw gateway restart

如果你遇到 token 相关提示(例如“unauthorized token”),可以创建/配置 token:

openclaw token create      # 创建一个访问 token
openclaw gateway restart   # 再重启一次

2. 启动 OpenClaw 终端界面(OpenClawbot 的本地控制台)

bash复制

openclaw tui

成功的话,你会看到一个基于 TUI 的聊天界面(类似一个终端聊天窗口),此时输入一句中文:

你:帮我列一个今天的工作待办清单

几秒后能看到 Qwen 3.5 的回复,就说明:

  • OpenClaw 已经成功通过 providers.ollama 调用了本地 Ollama
  • Ollama 内部调起了 Qwen 3.5 模型
  • 整个 “OpenClawbot → Ollama → Qwen 3.5” 链路打通

到这里,一个本地终端版的 Qwen 3.5 OpenClawbot 已经部署完成。


八、可选:接入 Telegram,做“聊天软件版机器人”

很多教程会在这一步把 OpenClawbot 接入 Telegram,形成一个真正的“聊天机器人”[1]。这里只简单带一下部署关键点,后面你可以单开一篇专门写 Telegram / 微信接入。

1. 在 Telegram 里创建 Bot

  • 搜索 @BotFather
  • 发送 /newbot 按提示创建机器人
  • 获得一个形如 123456789:ABC-...Bot Token

2. 在 OpenClaw 里配置 Telegram 通道

方式一:用交互式配置向导:

openclaw configure

大致流程:

  • 选择要配置的 section:channels
  • 添加新的 channel:选择 telegram
  • 粘贴 Bot Token
  • 保存退出(类似 Finished 之类的选项)

方式二:直接在 config.yaml 增加:

channels:
  terminal:
    enabled: true
    type: terminal

  telegram:
    enabled: true
    type: telegram
    bot_token: YOUR_TELEGRAM_BOT_TOKEN

然后重启网关:

openclaw gateway restart

此时在 Telegram 中给你的 Bot 发消息,应该就能看到由 Qwen 3.5 驱动的回复了(消息也会在 TUI 里同步显示)。


九、常见问题与排错

1. OpenClaw 报 “model not found” 或调用失败

排查步骤:

重启网关再试:

openclaw gateway restart

确保 config.yaml 中的:

providers:
  ollama:
    model: qwen3.5-0.8b

ollama list 里的 tag 完全一致(包括点、横线、大小写)[1]。

先看 Ollama 里到底有什么模型:

ollama list

2. CPU 占用高 / 非常慢

  • 尝试先用 qwen3.5-0.8b,避免一上来就拉大模型
  • 问题尽量短一点,减少生成 token 数
  • 如果是服务器,可以考虑用 screentmux 把进程常驻后台

3. 报 “unauthorized token” 类错误

说明 OpenClaw 的网关启用了一些 token 校验:

openclaw token create
openclaw gateway restart

按提示生成 token 并更新配置即可。


十、一键启动脚本示例(方便日常使用)

你可以写一个简单脚本,让自己每次启动更轻松。

例如 start_openclaw_qwen.sh



赋予执行权限:

chmod +x start_openclaw_qwen.sh

之后只要:

./start_openclaw_qwen.sh

就能直接进到聊天界面。


十一、总结:这一篇你已经完成了什么?

到目前为止,你已经完成了:

  1. 在本地安装并启动 Ollama
  2. 拉取并验证可以运行的 Qwen 3.5 0.8B 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 写好 config.yaml,让 OpenClaw 通过 Ollama 调 Qwen 3.5
  5. 启动网关和 TUI,确认可以在终端完成整链路对话;
  6. 初步了解了如何把机器人接入 Telegram。

Read more

【图文】Windows + WSL + Ubuntu 安装 OpenClaw 全套流程(飞书机器人 + 百炼模型)

目录 * 一、安装 WSL * 二、安装基础组件 * 三、安装 Node.js(通过 nvm) * 1 安装 nvm * 2 安装 Node * 四、安装 OpenClaw * 五、OpenClaw 初始化配置 * 六、Hooks 配置(重要) * 七、打开 Web UI * 八、安装飞书插件 * 九、第三方飞书插件(备用方案) * 十、飞书权限配置(注意先做好飞书机器人设置,再配置channel) * 十一、配置飞书channel * 十二、配置飞书回调事件 * 十三、重启 OpenClaw * 十四、配置百炼模型

机器人标准DH(SDH)与改进DH(MDH)

机器人标准DH(SDH)与改进DH(MDH)

首先说一下为什么要写这一篇博客,就是为了提醒大家要明确区分标准DH和改进DH。很多机器人初学者只知道用DH法建立串联机器人连杆坐标系,然后在看书或者使用DH的时候很糊涂的就模糊了这标准DH和改进DH的区别,最大的坑就是:一些比较老的机器人学教科书用的是标准DH,而现在比较新的机器人书或者说我们大部分用的都是改进DH,这就导致老的教科书里面的一些公式推导和新的网上找的代码不一致,就会比较麻烦。 一:改进DH法 建立连杆坐标系: 使用改进D-H参数,将 坐标系定义在i 连杆的前端关节: 二:标准DH与改进DH法的区别 我们知道一个连杆有两端,一端离基座近,一端离基座远。简单的来说,标准DH将坐标系i建立在连杆i离基座近的一端,改进DH建立在离基座远的一端。 2.1 机器人连杆与关节的标号 先标号,再建系。 连杆编号:基座为杆0,从基座往后依次定义为杆1,杆2,…,杆i; 关节编号:杆i离基座近的一端(近端)的关节为关节i,远的一端(远端)为关节i+1。 为便于理解,这里我把连杆的近端用绿色表示,远端用橙色表示,且远端驱动近端转动。大家只要记住一句话,连杆近端关节

【全网最全・保姆级】Stable Diffusion WebUI Windows 部署 + 全套报错终极解决方案

大家好,我是在部署 SD WebUI 过程中把几乎所有坑都踩了一遍的选手,从 Git 报错、模块缺失、依赖冲突到虚拟环境异常,全部踩完。今天把完整安装流程 + 我遇到的所有真实错误 + 一行一解全部整理出来,写成一篇能直接发 ZEEKLOG 的完整文章。 一、前言 Stable Diffusion WebUI 是目前 AI 绘画最主流的本地部署工具,但 Windows 环境下因为 Python 版本、虚拟环境、Git 仓库、依赖包、CLIP 编译 等问题,90% 的新手都会启动失败。本文包含: * 标准 Windows 一键部署流程 * 我真实遇到的 10+ 种报错 * 每一种报错的 原因 + 直接复制可用的命令 * 最终测试出图提示词(

高原无人机测试:稀薄空气下的飞行控制算法

高原无人机测试:稀薄空气下的飞行控制算法

高原环境的独特挑战与测试必要性 高原环境(如青藏高原)以稀薄空气、低温、强风切变和低氧条件著称,这些因素对无人机飞行控制算法构成极端考验。空气密度仅为海平面的50%-60%,导致升力不足、动力衰减和传感器漂移,直接影响姿态稳定性和导航精度。软件测试从业者需关注算法在高海拔下的鲁棒性验证,因为传统测试方法无法覆盖这些动态干扰场景。例如,稀薄空气会放大控制延迟和误差累积,可能引发失控事故。通过专业化测试,可确保算法在真实高原场景中的可靠性,避免因环境变异导致的系统失效。 一、高原环境对飞行控制算法的影响机制 高原的物理特性直接影响飞行控制算法的核心模块: * 动力与升力衰减:稀薄空气降低螺旋桨效率,需更高转速维持升力,但电池在低温下(如-20℃)放电效率下降30%-40%,导致算法需动态调整动力输出阈值。测试中需模拟空气密度梯度(如从海拔0m到5000m),验证PID控制器能否实时补偿扭矩失衡。 * 传感器干扰与导航漂移:低氧和强紫外线加剧IMU(惯性测量单元)的噪声漂移,GPS信号在高山峡谷中易被遮挡,造成位置误差放大。例如,稻城高海拔测试中,无人机在3500米处GPS定位漂