从零部署 Ollama + Qwen 3.5 + OpenClawbot:在本地跑起来你的免费 AI 助手

这篇文章只干一件事:

帮你在一台机器上,把 Ollama + Qwen 3.5 + OpenClaw(OpenClawbot) 整套环境部署起来,并验证能正常聊天。

不讲太多概念,更多是命令 + 配置 + 排错,适合你边看边敲。


一、整体架构先说清楚

这一套技术栈里,各组件的分工是:

  • Ollama:本地大模型运行引擎,相当于“模型服务端”
  • Qwen 3.5:具体的大模型(如 qwen3.5-0.8b),在 Ollama 里跑
  • OpenClaw / OpenClawbot:在上面封一层“智能代理 + 多通道机器人”(终端、Telegram、后面你也可以接微信等)

简单理解为:

你/用户  →  OpenClawbot  →  Ollama API(http://localhost:11434)  →  Qwen 3.5 模型

所以部署顺序是:

  1. 安装并启动 Ollama
  2. 在 Ollama 里拉起 Qwen 3.5 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 配置 OpenClaw 使用 Ollama+Qwen 3.5
  5. 启动,确认可以正常对话

二、环境与准备

1. 操作系统和硬件建议

  • 系统
    • 推荐:macOS / Ubuntu 20.04+ / 22.04+
    • Windows:建议用 WSL2 + Ubuntu 跑 Ollama 和 OpenClaw
  • 硬件(跑 Qwen 3.5 0.8B 这种小模型):
    • CPU:4 核以上
    • 内存:8GB 起
    • 磁盘:预留 10GB+
    • GPU:可选;没有 GPU 也能跑 0.8B 模型

如果你只是想先体验一把,用一台 8G 内存的笔记本就能跑通。

2. 需要的软件

  • curl(拉安装脚本)
  • Node.js + npm(用来装 OpenClaw)
  • git(可选,用于看 OpenClaw 源码)

Ubuntu 一键装:

sudo apt update sudo apt install -y curl nodejs npm git

macOS 建议先装 Homebrew,再:

brew install node git
# curl 一般自带

三、第一步:安装并验证 Ollama

1. 安装 Ollama

官方安装脚本(macOS / Linux):

curl -fsSL https://ollama.com/install.sh | sh

Windows 则去官网下安装包,或者在 WSL2 Ubuntu 里用上面的命令。

2. 验证 Ollama 安装

ollama --version

能看到类似:

ollama version 0.17.0

说明 OK。

3. 启动 Ollama 服务

大多数系统装好后会自动以守护进程方式运行,你可以手动确认下:

# 看看 11434 端口是否在监听(Linux) ss -lntp | grep 11434 # 或简单 curl 一下 curl http://localhost:11434

如果返回类似:

{"models":[...]}

那说明 Ollama 服务正常在 http://localhost:11434 跑着。


四、第二步:在 Ollama 中拉取 Qwen 3.5 模型

1. 选择合适的 Qwen 3.5 版本

为了兼顾效果和能跑得动,很推荐文章里提到的:

  • qwen3.5-0.8b:只有 0.8B 参数,可以在纯 CPU 上跑,占空间大概 1GB 左右[1]
    适合入门 / VPS / 老电脑

如果你的 GPU 和内存都比较强,也可以尝试更大的版本(14B 等),但本篇先以 0.8B 为主。

2. 拉取模型

ollama pull qwen3.5-0.8b

耐心等下载完成。

3. 在命令行直接试一下模型

ollama run qwen3.5-0.8b "用一句话介绍一下你自己。"

如果能看到模型正常回答,说明:

  • Ollama 安装 OK
  • Qwen 3.5 模型拉取 OK
  • 本地推理能力没问题

五、第三步:安装 OpenClaw / OpenClawbot

说明:目前社区普遍说的“OpenClawbot”,本质上就是基于 OpenClaw 做的一套机器人/代理配置,这里统一用 OpenClaw 命令来装和配。

1. 通过 npm 全局安装 OpenClaw

npm install -g openclaw

如果报权限问题,可以用:

sudo npm install -g openclaw

安装完成后,执行:

openclaw --version

能看到版本号就说明装好了。

2.(可选)用 Ollama 的一键命令安装

Ollama 官方文档里提到,可以直接通过:

ollama launch openclaw --model qwen3.5-0.8b

来触发:

  1. 检查本机是否有 OpenClaw
  2. 如果没有,会提示并自动帮助安装配置一套推荐模型和插件[2]

如果你偏向“自动化安装”,可以考虑这条路线;
如果你想“自己掌控配置”,建议用 npm install -g openclaw 再手动改配置文件。

下面配置一节按“手动可控”路线讲。


六、第四步:配置 OpenClaw 连接 Ollama + Qwen 3.5

OpenClaw 的核心配置在一个 config.yaml 里(默认在 ~/.config/openclaw/config.yaml)。

1. 找到/创建配置文件

先看一下有没有默认配置目录:

ls ~/.config/openclaw

如果不存在,就自己创建:

mkdir -p ~/.config/openclaw
nano ~/.config/openclaw/config.yaml
# 或 vim / code 打开都行

2. 写入一个最小可用配置(终端机器人版)

例如:

gateway: host: 127.0.0.1 port: 3000 providers: ollama: type: ollama base_url: http://localhost:11434 # Ollama 默认 API 地址 model: qwen3.5-0.8b # 和你用 ollama pull 的 tag 一致 agents: default: provider: ollama system_prompt: > 你是一个中文 AI 助手,回答要简洁、友好,可以适当给出示例。 channels: terminal: enabled: true type: terminal

关键点:

  • base_url 必须指向你本机的 Ollama 接口,一般就是 http://localhost:11434
  • model 字段要与 ollama list 里显示的 完全一致,区分大小写与横杠[1]
  • agents.default.provider 对应上方 providers 中你起的名字(这里是 ollama

3. 检查配置是否正确

OpenClaw 一般会提供简单检查命令,你可以先直接尝试运行(有错误会提示)。


七、第五步:启动 OpenClaw 网关与 TUI(终端界面)

下面命令是来自社区实战博客的典型用法流程[1]。

1. 更新并启动网关

# 更新网关(如有必要)
openclaw gateway update

# 重启网关,使最新配置生效
openclaw gateway restart

如果你遇到 token 相关提示(例如“unauthorized token”),可以创建/配置 token:

openclaw token create      # 创建一个访问 token
openclaw gateway restart   # 再重启一次

2. 启动 OpenClaw 终端界面(OpenClawbot 的本地控制台)

bash复制

openclaw tui

成功的话,你会看到一个基于 TUI 的聊天界面(类似一个终端聊天窗口),此时输入一句中文:

你:帮我列一个今天的工作待办清单

几秒后能看到 Qwen 3.5 的回复,就说明:

  • OpenClaw 已经成功通过 providers.ollama 调用了本地 Ollama
  • Ollama 内部调起了 Qwen 3.5 模型
  • 整个 “OpenClawbot → Ollama → Qwen 3.5” 链路打通

到这里,一个本地终端版的 Qwen 3.5 OpenClawbot 已经部署完成。


八、可选:接入 Telegram,做“聊天软件版机器人”

很多教程会在这一步把 OpenClawbot 接入 Telegram,形成一个真正的“聊天机器人”[1]。这里只简单带一下部署关键点,后面你可以单开一篇专门写 Telegram / 微信接入。

1. 在 Telegram 里创建 Bot

  • 搜索 @BotFather
  • 发送 /newbot 按提示创建机器人
  • 获得一个形如 123456789:ABC-...Bot Token

2. 在 OpenClaw 里配置 Telegram 通道

方式一:用交互式配置向导:

openclaw configure

大致流程:

  • 选择要配置的 section:channels
  • 添加新的 channel:选择 telegram
  • 粘贴 Bot Token
  • 保存退出(类似 Finished 之类的选项)

方式二:直接在 config.yaml 增加:

channels:
  terminal:
    enabled: true
    type: terminal

  telegram:
    enabled: true
    type: telegram
    bot_token: YOUR_TELEGRAM_BOT_TOKEN

然后重启网关:

openclaw gateway restart

此时在 Telegram 中给你的 Bot 发消息,应该就能看到由 Qwen 3.5 驱动的回复了(消息也会在 TUI 里同步显示)。


九、常见问题与排错

1. OpenClaw 报 “model not found” 或调用失败

排查步骤:

重启网关再试:

openclaw gateway restart

确保 config.yaml 中的:

providers:
  ollama:
    model: qwen3.5-0.8b

ollama list 里的 tag 完全一致(包括点、横线、大小写)[1]。

先看 Ollama 里到底有什么模型:

ollama list

2. CPU 占用高 / 非常慢

  • 尝试先用 qwen3.5-0.8b,避免一上来就拉大模型
  • 问题尽量短一点,减少生成 token 数
  • 如果是服务器,可以考虑用 screentmux 把进程常驻后台

3. 报 “unauthorized token” 类错误

说明 OpenClaw 的网关启用了一些 token 校验:

openclaw token create
openclaw gateway restart

按提示生成 token 并更新配置即可。


十、一键启动脚本示例(方便日常使用)

你可以写一个简单脚本,让自己每次启动更轻松。

例如 start_openclaw_qwen.sh



赋予执行权限:

chmod +x start_openclaw_qwen.sh

之后只要:

./start_openclaw_qwen.sh

就能直接进到聊天界面。


十一、总结:这一篇你已经完成了什么?

到目前为止,你已经完成了:

  1. 在本地安装并启动 Ollama
  2. 拉取并验证可以运行的 Qwen 3.5 0.8B 模型
  3. 安装 OpenClaw / OpenClawbot
  4. 写好 config.yaml,让 OpenClaw 通过 Ollama 调 Qwen 3.5
  5. 启动网关和 TUI,确认可以在终端完成整链路对话;
  6. 初步了解了如何把机器人接入 Telegram。

Read more

彻底关闭Win10中烦人的365 Copilot弹窗的6种方法

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 点击'项目生成'按钮,等待项目生成完整后预览效果 输入框输入如下内容 帮我开发一个Windows系统优化小工具,用于帮助普通用户一键禁用各类系统弹窗和推送功能。系统交互细节:1.提供常见弹窗类型选择 2.显示当前系统状态 3.一键禁用功能 4.支持恢复默认设置。注意事项:需要管理员权限运行 最近很多Win10用户在系统升级后都遇到了Microsoft 365 Copilot频繁弹窗的问题,这个功能虽然智能,但频繁的打扰确实影响工作效率。经过实测,我总结了6种有效的关闭方法,从简单隐藏到彻底禁用一应俱全。 1. 任务栏临时隐藏是最简单的解决方案,只需右键任务栏取消勾选相关选项。但这个方法只是隐藏入口,Copilot功能仍在后台运行。 2. 组策略彻底禁用是最推荐的方式,通过系统内置的组策略编辑器可以完全关闭Copilot。操作时需要管理员权限,设置完成后需要重启生效。这个方法禁用后连快捷键都会失效,

Meixiong Niannian画图引擎企业级应用:营销团队AIGC内容流水线搭建实录

Meixiong Niannian画图引擎企业级应用:营销团队AIGC内容流水线搭建实录 1. 为什么营销团队需要自己的AIGC流水线? 你有没有遇到过这样的场景: 周五下午四点,市场部突然发来紧急需求——“明天上午十点前,要3套不同风格的618主图、5张小红书配图、2版朋友圈长图,还要适配抖音竖版和B站横版尺寸”。 设计师正在赶另一场发布会的视觉稿,文案同事刚交完三篇种草文,运营还在等素材上架。 最后,大家围在一台电脑前,轮流输入提示词、反复刷新、截图保存、手动裁剪、加水印……直到凌晨一点。 这不是个别现象。我们调研了12家中小企业的营销团队,发现一个共性痛点:内容需求爆发式增长,但创意产能卡在人工瓶颈上。一张高质量电商主图平均耗时47分钟,一套节日海报系列需2.5人日,而A/B测试要求至少3版并行——时间根本不够用。 Meixiong Niannian画图引擎不是又一个“玩具模型”,它是为这种真实业务节奏打磨出来的轻量级生产工具。它不追求参数榜单第一,但能稳定跑在一台24G显存的RTX 4090工作站上,从输入文字到生成1024×1024高清图,全程控制在8秒内,且支持批

无人机数据分析终极指南:UAV Log Viewer完整使用教程

无人机数据分析终极指南:UAV Log Viewer完整使用教程 【免费下载链接】UAVLogViewerAn online viewer for UAV log files 项目地址: https://gitcode.com/gh_mirrors/ua/UAVLogViewer 想要深入理解无人机飞行数据却无从下手?UAV Log Viewer正是你需要的解决方案!这款开源的无人机日志分析工具能够将复杂的飞行数据转化为直观的可视化图表,让你轻松掌握每一次飞行的详细信息。 为什么需要专业的无人机数据分析? 无人机飞行过程中会产生海量的数据记录,包括姿态信息、GPS轨迹、电池状态、传感器读数等。传统的数据分析方法往往需要专业知识和复杂工具,而UAV Log Viewer通过现代化的Web技术,让数据分析变得简单直观。 无人机飞行姿态数据可视化与3D轨迹展示 核心功能亮点解析 多维度数据可视化 UAV Log Viewer支持多种数据展示方式,包括: * 2D时间序列图表:展示姿态角、速度、高度等参数随时间变化 * 3D飞行轨迹模拟:使用Cesium引擎实现真实地

数据中台建设中的数据血缘可视化:Neo4j应用

数据中台建设中的数据血缘可视化:Neo4j应用 关键词:数据中台、数据血缘、可视化、图数据库、Neo4j、数据治理、元数据管理 摘要:数据中台建设中,数据血缘分析是实现数据治理、影响分析和链路优化的核心能力。本文系统阐述基于Neo4j图数据库构建数据血缘可视化平台的技术体系,从数据血缘的核心概念与数学模型出发,详细讲解元数据采集、图模型构建、可视化渲染的全流程实现,结合真实项目案例演示如何通过Neo4j的图遍历算法和Cypher查询语言解决数据血缘分析中的复杂依赖问题。通过理论与实践结合,揭示图数据库在数据血缘场景中的独特优势,为企业数据中台建设提供可落地的技术方案。 1. 背景介绍 1.1 目的和范围 在企业数据中台建设中,数据资产规模呈指数级增长,数据来源涵盖业务系统、日志平台、第三方接口等多类数据源,数据加工流程涉及ETL作业、数据建模、指标计算等复杂处理逻辑。数据血缘分析旨在回答"数据从哪里来,到哪里去"的核心问题,通过可视化手段呈现数据实体(表、字段、任务等)之间的依赖关系,为数据质量监控、故障定位、合规审计提供关键支撑。