OpenClaw实战系列01:OpenClaw接入飞书机器人全接入指南 + Ollama本地大模型

文章目录

引言

在AI技术爆发的2026年,我们不再满足于使用公用的ChatGPT或Claude。出于数据隐私、定制化需求或离线可用的考虑,本地部署AI大模型并接入日常办公软件成为了新的刚需。

本文将带你从零开始,完成以下目标:

  1. 安装OpenClaw:一个强大的开源个人AI助理框架(前身为ClawdBot/Moltbot)。
  2. 部署Ollama:在本地运行大模型(如DeepSeek-R1、Llama 3等),作为AI的“大脑”。
  3. 接入飞书:将你的AI助理添加到飞书好友或群聊中,实现随叫随到的智能办公体验。

第一步:环境准备与核心思想

在开始前,我们需要明确技术架构:飞书 → OpenClaw(调度器) → Ollama(本地模型)。

  • 操作系统:Windows(建议WSL2)、macOS 或 Linux。本文以 Windows 11 + WSL2 (Ubuntu 22.04) 为例。
  • 硬件要求:
    • CPU:4核以上(推荐8核)
    • 内存:16GB以上(若运行7B-8B模型,需预留8-10GB内存给模型)
    • 磁盘:20GB以上剩余空间。

第二步:部署Ollama——把大模型“养”在本地

Ollama 是目前最便捷的本地模型运行工具,它支持 Llama 3、DeepSeek-R1、Qwen 2.5 等一系列主流模型

1. 安装 Ollama

访问 Ollama 官网 下载对应系统的安装包,或使用命令行安装(以Linux/WSL为例):

curl-fsSL https://ollama.com/install.sh |sh

安装完成后,验证版本:

ollama --version

并通过 ollama serve 确保服务在后台运行(通常安装后会自动注册为服务)。

2. 拉取并运行模型

根据你的硬件配置选择合适的模型。对于大多数用户,推荐使用 DeepSeek-R1(7B) 或 Llama 3.2(3B),兼顾性能与资源占用。

# 运行 DeepSeek-R1(会自动下载) ollama run deepseek-r1:7b # 或者运行 Llama 3.2(更轻量) ollama run llama3.2 

出现 Send a message 提示即表示模型启动成功。
注意:记下这个终端,后续OpenClaw会通过API调用它。

3. 确认API可用性

Ollama 默认会在本地 11434 端口开启API服务。我们可以用 curl 测试一下:

curl http://localhost:11434/api/generate -d'{ "model": "deepseek-r1:7b", "prompt": "你好,你是谁?", "stream": false }'

看到包含“DeepSeek”或对应模型名的JSON返回,说明Ollama已经准备就绪。

第三步:安装OpenClaw——AI大脑的“躯干”

OpenClaw 负责连接聊天软件(飞书)和AI大脑(Ollama),并管理各种工具(Skills)。

1. 安装Node.js

OpenClaw 需要 Node.js 22.0 或更高版本。

# 以Ubuntu为例curl-fsSL https://deb.nodesource.com/setup_22.x |sudo-Ebash - sudoaptinstall-y nodejs node-v# 检查版本

2. 一键安装 OpenClaw

官方提供了一键安装脚本,会自动处理大部分配置。

curl-fsSL https://openclaw.bot/install.sh |bash

安装完成后,执行初始化向导。注意: 最新版的向导已经支持直接配置飞书和模型了,非常方便!

openclaw onboard --install-daemon 

在向导中:

  • AI 模型配置:由于我们要用Ollama,这里可以选择“Other/OpenAI Compatible”。API地址填:http://localhost:11434/v1/(Ollama兼容OpenAI格式),API Key可以随便填(如ollama),模型名填你下载的,比如 deepseek-r1:7b。
  • 通信渠道:先跳过(Telegram/WhatsApp等),我们后面手动配置飞书。

3. 验证安装

启动服务并检查状态:

openclaw gateway start openclaw status 

此时访问 http://127.0.0.1:18789 应该能看到 OpenClaw 的 Web 控制台(Dashboard)。

第四步:打通飞书——创建并配置机器人

这是让AI“落地”的关键一步,我们需要在飞书开放平台注册一个机器人应用。

1. 创建飞书应用

  1. 登录飞书开发者后台
  2. 点击“创建企业自建应用”,填写名称和描述,上传头像。
  3. 创建成功后,进入应用详情页,点击左侧“凭证与基础信息”,记录下 App ID 和 App Secret(非常重要!)。

2. 配置机器人能力

  1. 在左侧“添加应用能力”中,点击“机器人”进行添加。
  2. 点击左侧“权限管理”,为机器人开通必要权限。最简单的方法是搜索并添加以下权限:
    • im:message 相关的收发权限(im:message:send_as_bot, im:message.group_msg, im:message.p2p_msg)。
    • contact:contact.base:readonly(读取通讯录,用于识别@你的人)。
    • 如果有操作文档的需求,还需开通文档相关的权限。
  3. 点击左侧“事件与回调”,选择“事件配置”。
    • 订阅方式选择“使用长连接接收事件”(开发测试阶段最方便)。点击保存。
    • 添加事件:搜索并添加 im.message.receive_v1(接收消息事件)。

3. 发布应用

  1. 点击左侧“版本管理与发布”,创建一个版本,填写版本日志。
  2. 点击“申请发布”(如果是你自己的企业,审核会秒过,直接发布成功)。
  3. 发布后,在飞书搜索框搜索你的应用名称,找到它并发送一条消息“你好”,此时应该收到来自飞书官方的“配对码”提示,因为我们的后端还没连上。

第五步:OpenClaw与飞书“握手”

现在,我们要让 OpenClaw 认识这个飞书机器人。

方法一:使用 onboard 向导重新配置(推荐最新版)

openclaw onboard 

当问到渠道时,选择 feishu,并输入刚才拿到的 App IDApp Secret

方法二:手动添加渠道

如果已经完成了onboard,可以使用 channels 命令:

openclaw channels add# 选择 feishu,按提示输入 APP ID 和 APP SECRET

配置完成后,必须重启网关才能使配置生效:

openclaw gateway restart # 或者旧版本命令 openclaw-cn gateway restart

查看实时日志,确认飞书连接是否成功:

openclaw logs --follow

看到类似 Feishu client connectedlogin success 的字样,说明连接成功。

批准配对

再次回到飞书,向你的机器人发送任意消息(例如“你好”)。
此时,飞书机器人会回复一串 Pairing code: xxxx-xxxx
在命令行中执行批准命令:

openclaw pairing approve feishu <你收到的code>

第六步:实战测试与玩法拓展

现在,你的飞书AI助理已经可以工作了。你可以把它拉到群里,或者私聊。

1. 本地能力测试

在飞书里输入指令:

  • 帮我看看我电脑的存储占用情况”(如果OpenClaw配置了相关系统Skill,它会执行命令并返回结果)。
  • 帮我整理桌面的文件夹,按类型分类”。

2. 结合Ollama的优势

由于我们用的是Ollama,你可以随时切换模型而无需重启OpenClaw。只需修改OpenClaw配置中的模型名,或者通过OpenClaw的TUI界面临时切换模型。

# 在OpenClaw的TUI界面 /model deepseek-r1:7b 

3. 云端模型备用

如果你的本地机器性能不足,或者需要处理超长文本,Ollama也支持调用云端模型(如GLM4.7等),可以在配置中随时切换,实现本地与云端的“双模”运行。

常见问题与避坑指南

  1. OpenClaw 提示command not found
    • 原因:npm全局路径未加入系统PATH。
    • 解决:执行 npm prefix -g 找到路径(如 /usr/local),然后将 export PATH=“ ( n p m p r e f i x − g ) / b i n : (npm prefix -g)/bin: (npmprefix−g)/bin:PATH” 加入 ~/.bashrc 或 ~/.zshrc。
  2. 飞书机器人无响应
    • 检查步骤
    1. openclaw status 确认网关运行。
    2. 日志中是否有飞书连接报错(检查APP ID/Secret是否正确)。
    3. 检查 OpenClaw 的配置文件 ~/.openclaw/openclaw.json,确保 feishu 配置块存在且 enabled 为 true。
  3. Ollama 模型推理速度慢
    • 优化:关闭其他大型应用释放内存;尝试使用量化版本模型(如 deepseek-r1:7b-q4_0);确认Ollama是否成功利用了GPU(ollama run deepseek-r1:7b --verbose 查看日志)。
  4. 飞书长连接配置失败
    • 如果 onboard 向导报错,可以先用飞书官方的“Python示例代码”建立一个临时连接,让飞书后台通过验证,然后再切回OpenClaw。

总结

通过 OpenClaw + Ollama + 飞书的组合,我们成功搭建了一个完全私有、免费、可定制的AI助理。它不仅能在日常聊天中提供帮助,还能通过OpenClaw强大的“技能”体系,真正去操作你的电脑、管理文件、甚至执行代码。

这套方案将数据留在本地,既保证了隐私安全,又锻炼了动手能力。现在,去给你的AI助理添加更多酷炫的技能吧!

想看更多实战内容,可定义我的专栏《OpenClaw实战:企业级AI助理开发指南》。

Read more

AI Agent开发必看!OpenViking如何用“文件系统”解决上下文管理五大痛点?

AI Agent开发必看!OpenViking如何用“文件系统”解决上下文管理五大痛点?

一、AI Agent 的"金鱼记忆"困境 在 AI 时代,大模型能力飞速提升,Agent 不再满足于处理单轮对话,而是开始面对长周期任务、海量多模态数据和复杂的协同需求。然而,开发者们普遍遭遇了一个难以逾越的瓶颈——上下文管理。 具体来说,Agent 开发面临五大核心痛点: 1. 上下文碎片化:记忆散落在代码中,资源存储在向量库,技能分布在各个配置文件,缺乏统一管理方式 2. Token 成本失控:长程任务产生的上下文持续累积,全量加载费用惊人,截断压缩又会导致关键信息丢失 3. 检索效果差:传统 RAG 采用平铺式向量存储,缺乏全局视野,难以理解信息的完整语境 4. 黑箱问题:检索链路不透明,出错时难以调试和优化 5. 记忆无法成长:Agent 的记忆只是用户对话的被动记录,缺乏任务执行经验的沉淀

By Ne0inhk
Java中的Double类型的存在精度丢失详解

Java中的Double类型的存在精度丢失详解

在Java中,double类型基于IEEE 754标准实现双精度浮点数,其精度丢失问题源于二进制表示与十进制小数的天然差异。以下从原理、案例、解决方案三方面详细解析: 一、精度丢失的根源 1. 二进制无法精确表示所有十进制小数 十进制小数如0.1在二进制中是无限循环小数(类似十进制中1/3=0.333...)。 * 0.1的二进制表示:0.0001100110011...(无限重复0011)。 * 由于double仅64位(1位符号位+11位指数位+52位尾数位),必须截断,导致舍入误差。 2. 浮点数的运算规则 浮点数运算(加、减、乘、除)会引入新的舍入误差。例如: 0.1 + 0.2在二进制中先分别表示为近似值,相加后再次舍入,最终结果不等于0.3。 二、典型案例演示 publicclassDoublePrecisionDemo{ publicstaticvoidmain(String[] args)

By Ne0inhk
HTML5+CSS3+JavaScript实现高木同学圣诞树GalGame完整开发指南

HTML5+CSS3+JavaScript实现高木同学圣诞树GalGame完整开发指南

HTML5+CSS3+JavaScript实现高木同学圣诞树GalGame完整开发指南 摘要:圣诞节快要到了,本文详细介绍了一个基于Web技术栈开发的完整GalGame(美少女游戏)项目。从项目架构设计、核心技术实现到性能优化,全面阐述如何使用纯前端技术构建具有丰富交互功能的视觉小说游戏。项目包含完整的对话系统、角色表情管理、分支剧情和存档功能,是Web前端技术在游戏开发领域应用的优秀实践案例。 📋 目录 * 1. 项目概述与目标 * 2. 技术架构选型 * 3. 核心功能实现 * 4. 界面设计与响应式布局 * 5. 开发难点与解决方案 * 6. 性能优化与用户体验 * 7. 部署与运行指南 * 8. 扩展功能与未来展望 * 9. 总结与收获 1. 项目概述与目标 1.1 项目背景 随着HTML5、CSS3和现代JavaScript技术的快速发展,Web平台已经能够承载复杂的交互应用。GalGame作为强调剧情叙事和角色互动的游戏类型,非常适合使用Web技术来实现。本项目选择热门动漫《擅长捉弄人的高木同学》作为题材,结合圣诞节主题,开发一个温馨有趣

By Ne0inhk

AI股票分析师daily_stock_analysis实测:3步完成私有化金融分析

AI股票分析师daily_stock_analysis实测:3步完成私有化金融分析 1. 为什么你需要一个“不联网”的股票分析工具? 你有没有过这样的经历:想快速了解一只股票的基本面,却要打开多个网页——财经新闻、股吧讨论、券商研报、交易所公告……信息杂乱,真假难辨,还可能被广告和营销内容干扰。更关键的是,当你输入敏感的自选股或内部研究代码时,是否担心数据被上传到云端?是否在意分析过程是否完全可控? 这正是 AI股票分析师daily_stock_analysis 镜像诞生的出发点:它不调用任何外部API,不连接互联网获取实时行情,也不依赖第三方服务。整个分析流程——从模型加载、提示词执行到报告生成——全部在你的本地设备上完成。你输入的股票代码(哪怕是MY-COMPANY这样的虚构代号),不会离开你的机器半步。 这不是一个“假装专业”的玩具。它用真实的大模型能力,配合严谨的角色设定和结构化输出约束,把复杂的金融分析逻辑压缩成三个清晰段落:近期表现、潜在风险、未来展望。没有图表,没有K线图,但有逻辑、有判断、

By Ne0inhk