从零部署 Ollama + Qwen 3.5 + OpenClawbot:在本地跑起来你的免费 AI 助手

这篇文章只干一件事:

帮你在一台机器上,把 Ollama + Qwen 3.5 + OpenClaw(OpenClawbot) 整套环境部署起来,并验证能正常聊天。

不讲太多概念,更多是命令 + 配置 + 排错,适合你边看边敲。


一、整体架构先说清楚

这一套技术栈里,各组件的分工是:

  • Ollama:本地大模型运行引擎,相当于“模型服务端”
  • Qwen 3.5:具体的大模型(如 qwen3.5-0.8b),在 Ollama 里跑
  • OpenClaw / OpenClawbot:在上面封一层“智能代理 + 多通道机器人”(终端、Telegram、后面你也可以接微信等)

简单理解为:

你/用户  →  OpenClawbot  →  Ollama API(http://localhost:11434)  →  Qwen 3.5 模型

所以部署顺序是:

  1. 安装并启动 Ollama
  2. 在 Ollama 里拉起 Qwen 3.5 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 配置 OpenClaw 使用 Ollama+Qwen 3.5
  5. 启动,确认可以正常对话

二、环境与准备

1. 操作系统和硬件建议

  • 系统
    • 推荐:macOS / Ubuntu 20.04+ / 22.04+
    • Windows:建议用 WSL2 + Ubuntu 跑 Ollama 和 OpenClaw
  • 硬件(跑 Qwen 3.5 0.8B 这种小模型):
    • CPU:4 核以上
    • 内存:8GB 起
    • 磁盘:预留 10GB+
    • GPU:可选;没有 GPU 也能跑 0.8B 模型

如果你只是想先体验一把,用一台 8G 内存的笔记本就能跑通。

2. 需要的软件

  • curl(拉安装脚本)
  • Node.js + npm(用来装 OpenClaw)
  • git(可选,用于看 OpenClaw 源码)

Ubuntu 一键装:

sudo apt update sudo apt install -y curl nodejs npm git

macOS 建议先装 Homebrew,再:

brew install node git
# curl 一般自带

三、第一步:安装并验证 Ollama

1. 安装 Ollama

官方安装脚本(macOS / Linux):

curl -fsSL https://ollama.com/install.sh | sh

Windows 则去官网下安装包,或者在 WSL2 Ubuntu 里用上面的命令。

2. 验证 Ollama 安装

ollama --version

能看到类似:

ollama version 0.17.0

说明 OK。

3. 启动 Ollama 服务

大多数系统装好后会自动以守护进程方式运行,你可以手动确认下:

# 看看 11434 端口是否在监听(Linux) ss -lntp | grep 11434 # 或简单 curl 一下 curl http://localhost:11434

如果返回类似:

{"models":[...]}

那说明 Ollama 服务正常在 http://localhost:11434 跑着。


四、第二步:在 Ollama 中拉取 Qwen 3.5 模型

1. 选择合适的 Qwen 3.5 版本

为了兼顾效果和能跑得动,很推荐文章里提到的:

  • qwen3.5-0.8b:只有 0.8B 参数,可以在纯 CPU 上跑,占空间大概 1GB 左右[1]
    适合入门 / VPS / 老电脑

如果你的 GPU 和内存都比较强,也可以尝试更大的版本(14B 等),但本篇先以 0.8B 为主。

2. 拉取模型

ollama pull qwen3.5-0.8b

耐心等下载完成。

3. 在命令行直接试一下模型

ollama run qwen3.5-0.8b "用一句话介绍一下你自己。"

如果能看到模型正常回答,说明:

  • Ollama 安装 OK
  • Qwen 3.5 模型拉取 OK
  • 本地推理能力没问题

五、第三步:安装 OpenClaw / OpenClawbot

说明:目前社区普遍说的“OpenClawbot”,本质上就是基于 OpenClaw 做的一套机器人/代理配置,这里统一用 OpenClaw 命令来装和配。

1. 通过 npm 全局安装 OpenClaw

npm install -g openclaw

如果报权限问题,可以用:

sudo npm install -g openclaw

安装完成后,执行:

openclaw --version

能看到版本号就说明装好了。

2.(可选)用 Ollama 的一键命令安装

Ollama 官方文档里提到,可以直接通过:

ollama launch openclaw --model qwen3.5-0.8b

来触发:

  1. 检查本机是否有 OpenClaw
  2. 如果没有,会提示并自动帮助安装配置一套推荐模型和插件[2]

如果你偏向“自动化安装”,可以考虑这条路线;
如果你想“自己掌控配置”,建议用 npm install -g openclaw 再手动改配置文件。

下面配置一节按“手动可控”路线讲。


六、第四步:配置 OpenClaw 连接 Ollama + Qwen 3.5

OpenClaw 的核心配置在一个 config.yaml 里(默认在 ~/.config/openclaw/config.yaml)。

1. 找到/创建配置文件

先看一下有没有默认配置目录:

ls ~/.config/openclaw

如果不存在,就自己创建:

mkdir -p ~/.config/openclaw
nano ~/.config/openclaw/config.yaml
# 或 vim / code 打开都行

2. 写入一个最小可用配置(终端机器人版)

例如:

gateway: host: 127.0.0.1 port: 3000 providers: ollama: type: ollama base_url: http://localhost:11434 # Ollama 默认 API 地址 model: qwen3.5-0.8b # 和你用 ollama pull 的 tag 一致 agents: default: provider: ollama system_prompt: > 你是一个中文 AI 助手,回答要简洁、友好,可以适当给出示例。 channels: terminal: enabled: true type: terminal

关键点:

  • base_url 必须指向你本机的 Ollama 接口,一般就是 http://localhost:11434
  • model 字段要与 ollama list 里显示的 完全一致,区分大小写与横杠[1]
  • agents.default.provider 对应上方 providers 中你起的名字(这里是 ollama

3. 检查配置是否正确

OpenClaw 一般会提供简单检查命令,你可以先直接尝试运行(有错误会提示)。


七、第五步:启动 OpenClaw 网关与 TUI(终端界面)

下面命令是来自社区实战博客的典型用法流程[1]。

1. 更新并启动网关

# 更新网关(如有必要)
openclaw gateway update

# 重启网关,使最新配置生效
openclaw gateway restart

如果你遇到 token 相关提示(例如“unauthorized token”),可以创建/配置 token:

openclaw token create      # 创建一个访问 token
openclaw gateway restart   # 再重启一次

2. 启动 OpenClaw 终端界面(OpenClawbot 的本地控制台)

bash复制

openclaw tui

成功的话,你会看到一个基于 TUI 的聊天界面(类似一个终端聊天窗口),此时输入一句中文:

你:帮我列一个今天的工作待办清单

几秒后能看到 Qwen 3.5 的回复,就说明:

  • OpenClaw 已经成功通过 providers.ollama 调用了本地 Ollama
  • Ollama 内部调起了 Qwen 3.5 模型
  • 整个 “OpenClawbot → Ollama → Qwen 3.5” 链路打通

到这里,一个本地终端版的 Qwen 3.5 OpenClawbot 已经部署完成。


八、可选:接入 Telegram,做“聊天软件版机器人”

很多教程会在这一步把 OpenClawbot 接入 Telegram,形成一个真正的“聊天机器人”[1]。这里只简单带一下部署关键点,后面你可以单开一篇专门写 Telegram / 微信接入。

1. 在 Telegram 里创建 Bot

  • 搜索 @BotFather
  • 发送 /newbot 按提示创建机器人
  • 获得一个形如 123456789:ABC-...Bot Token

2. 在 OpenClaw 里配置 Telegram 通道

方式一:用交互式配置向导:

openclaw configure

大致流程:

  • 选择要配置的 section:channels
  • 添加新的 channel:选择 telegram
  • 粘贴 Bot Token
  • 保存退出(类似 Finished 之类的选项)

方式二:直接在 config.yaml 增加:

channels:
  terminal:
    enabled: true
    type: terminal

  telegram:
    enabled: true
    type: telegram
    bot_token: YOUR_TELEGRAM_BOT_TOKEN

然后重启网关:

openclaw gateway restart

此时在 Telegram 中给你的 Bot 发消息,应该就能看到由 Qwen 3.5 驱动的回复了(消息也会在 TUI 里同步显示)。


九、常见问题与排错

1. OpenClaw 报 “model not found” 或调用失败

排查步骤:

重启网关再试:

openclaw gateway restart

确保 config.yaml 中的:

providers:
  ollama:
    model: qwen3.5-0.8b

ollama list 里的 tag 完全一致(包括点、横线、大小写)[1]。

先看 Ollama 里到底有什么模型:

ollama list

2. CPU 占用高 / 非常慢

  • 尝试先用 qwen3.5-0.8b,避免一上来就拉大模型
  • 问题尽量短一点,减少生成 token 数
  • 如果是服务器,可以考虑用 screentmux 把进程常驻后台

3. 报 “unauthorized token” 类错误

说明 OpenClaw 的网关启用了一些 token 校验:

openclaw token create
openclaw gateway restart

按提示生成 token 并更新配置即可。


十、一键启动脚本示例(方便日常使用)

你可以写一个简单脚本,让自己每次启动更轻松。

例如 start_openclaw_qwen.sh



赋予执行权限:

chmod +x start_openclaw_qwen.sh

之后只要:

./start_openclaw_qwen.sh

就能直接进到聊天界面。


十一、总结:这一篇你已经完成了什么?

到目前为止,你已经完成了:

  1. 在本地安装并启动 Ollama
  2. 拉取并验证可以运行的 Qwen 3.5 0.8B 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 写好 config.yaml,让 OpenClaw 通过 Ollama 调 Qwen 3.5
  5. 启动网关和 TUI,确认可以在终端完成整链路对话;
  6. 初步了解了如何把机器人接入 Telegram。

Read more

‌低代码/无代码测试工具:机遇与局限

‌低代码/无代码测试工具:机遇与局限

数字化转型下的测试革命‌ 在2026年的软件开发生态中,低代码/无代码(LCNC)测试工具已成为测试从业者不可忽视的力量。这类工具通过可视化界面和预构建模块,让用户无需编写复杂代码即可执行测试任务,显著加速测试周期。据Gartner预测,到2026年,超过50%的企业测试工作将依赖LCNC平台,尤其随着AI和云计算的融合,工具智能化水平大幅提升。然而,这一趋势也带来争议:是解放测试效率的“神器”,还是隐藏局限的“双刃剑”?本文从机遇与局限双维度,为软件测试从业者提供深度解析,助力决策与创新。 ‌第一部分:低代码/无代码测试工具的机遇‌ LCNC工具为测试从业者带来多重机遇,核心在于提升效率、降低门槛和赋能协作。 1. ‌加速测试自动化与缩短交付周期‌ * ‌效率提升‌:传统编码测试需要数周开发脚本,而LCNC工具(如Katalon或Testim)通过拖放界面实现分钟级测试用例创建。例如,2025年Forrester报告显示,采用LCNC工具的企业测试周期缩短40%,缺陷修复时间减少30%。这对敏捷和DevOps团队至关重要,支持持续集成/持续部署(CI/CD)流水线,

零基础入门:连接烟雾传感器至智能家居网关

以下是对您提供的博文内容进行 深度润色与结构重构后的技术文章 。本次优化严格遵循您的全部要求: * ✅ 彻底去除AI痕迹 :全文以一位有10年嵌入式+IoT系统开发经验的工程师口吻撰写,语言自然、节奏松弛、逻辑递进,穿插真实调试经历与踩坑反思; * ✅ 摒弃模板化标题与“总-分-总”结构 :不再使用“引言/概述/总结”等机械框架,而是以一个具体问题切入,层层展开,结尾落在可延伸的技术思考上,不设结论段; * ✅ 强化教学感与实操温度 :关键步骤加入“我当时怎么调通的”“客户现场报错第一反应是什么”等一线视角;寄存器配置、电平匹配、MQTT Topic命名等细节全部还原真实工程语境; * ✅ 语言精炼有力,术语解释即用即释 :不堆砌概念,所有专业词(如ZCL、APS、Binding Table)都在首次出现时用一句话讲清它“在这件事里到底起什么作用”; * ✅ 保留并增强所有技术干货 :原表格、代码、参数对比全部保留,但表述更紧凑、重点更锋利;新增2处典型误操作还原(如“为什么接了上拉电阻还是抖?

西门子大型程序及Fanuc机器人焊装系统集成 - 包含多项Profinet通讯与智能模块

西门子大型程序及Fanuc机器人焊装系统集成 - 包含多项Profinet通讯与智能模块

西门子大型程序fanuc机器人焊装 包括1台 西门子1500PLC程序,2台触摸屏TP1500程序,9个智能远程终端ET200SP Profinet连接 15个Festo智能模块Profinet通讯 10台Fanuc发那科机器人Profinet通讯 3台G120变频器Profinet通讯 2台智能电能管理仪表PAC3200 4个GRAPH顺控程序 图尔克RFID总线模组通讯 和MES系统通讯,西门子安全模块 内含GSD文件,可供其他项目使用 程序经典,结构清晰,SCL算法,堆栈,梯形图,结构化编程,想学习项目累计经验时间可以借鉴思路博途v15.1以上可以打开。 最近在搞一个挺有意思的项目,用西门子1500PLC搭了个Fanuc机器人焊装产线。这系统里光Profinet设备就三十多个,从ET200SP到发那科机器人,再带G120变频器,活脱脱一个工业通讯大杂烩。但别被设备数量吓到,程序结构可是清清爽爽,就像老司机整理的衣柜——该挂的挂,该叠的叠。 先说这程序里的SCL算法,比老式梯形图利索多了。举个栗子,处理机器人故障信号时用了堆栈结构: VAR_TEMP AlarmStack :

具身智能演示深解---从盲行到跑酷:深度视觉如何赋予足式机器人极限运动能力

具身智能演示深解---从盲行到跑酷:深度视觉如何赋予足式机器人极限运动能力

1. 引言:为什么需要深度视觉 在过去数年间,基于强化学习的足式机器人运动控制取得了长足进展。早期的工作——以ETH的legged_gym框架和IsaacGym并行训练环境为代表——已经证明,仅依靠本体感知(关节编码器、IMU等)就能训练出在连续复杂地形上鲁棒行走的策略。这类方法通常被称为"Blind Locomotion",即机器人不借助任何外部视觉传感器,完全依赖对自身状态的感知来适应地形变化。DreamWaQ(KAIST, ICRA 2023)等工作进一步证明,通过非对称Actor-Critic框架配合隐式地形估计,四足机器人甚至可以在户外多样地形上实现长距离鲁棒行走。 然而,Blind Locomotion存在一个根本性的局限:机器人无法预知前方地形的具体形态。当面对跳箱、深沟、高台阶等需要提前规划动量和轨迹的极限地形时,纯本体感知的策略往往力不从心。跑酷(Parkour)场景要求机器人在接近障碍物之前就判断出障碍物的高度、宽度和距离,并据此调整步态、积累动量、选择起跳时机。这些决策必须依赖对前方环境的主动感知——深度视觉由此成为从"能走"到"能跑酷&