用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

执行git clone https://github.com/openclaw/openclaw克隆项目,执行cd openclaw进入项目

执行node --version看看node的版本是否大于等于22(没有node.js需自行安装),再执行npm install -g pnpm安装作为包管理器,并执行pnpm install安装依赖

首次执行pnpm ui:build构建 Web UI(会先安装 ui/ 目录的依赖)

执行pnpm build构建主程序

执行pnpm openclaw onboard --install-daemon运行配置向导(安装守护进程),完成初始化

按键盘右箭头选择Yes,同样Yes

任选一个模型提供商都行,没有对应的提供商的密钥可以跳过,如果是本地模型选vLLM(需用vLLM框架启动模型,有性能优势,但原生vLLM仅完全支持Linux的cuda)、Custom Provider(可以连接任何 OpenAI 或 Anthropic 兼容的端点,包括托管提供商和自托管端点)和 LiteLLM (最通用,能通过中间层转换支持任意后端,既支持云端也支持本地模型,也包括Ollama、vLLM、LM Studio、llama.cpp 等本地后端)

Custom Provider最方便,适合日常使用,支持范围:

  • ✅ Ollama(自动检测,无需配置)
  • ✅ vLLM(localhost:8000/v1
  • ✅ LM Studio(localhost:1234/v1
  • ✅ llama.cpp(localhost:8080/v1,需启动 ./llama-server
  • ✅ 自封装 API:任何你自己用 Python + Transformers 封装的 OpenAI-compatible 服务
  • ✅ LiteLLM 代理
  • ✅ Text Generation WebUI

a)使用本地模型及报错处理

Endpoint ID随便填

如果提示alias被占用可以不填Model alias或可到用户目录的隐藏目录.openclaw的openclaw.json删除类似红色框的部分

卡了很久,疑似报错

新开终端,在openclaw项目文件夹位置输入pnpm openclaw logs --follow,可发现关键报错原因是上下文窗口太小(这是 OpenClaw 2026.2 版本的硬性要求:contextWindow 必须 ≥ 16000,但 onboard 向导默认只设 4096)

先输入/exit退出

到用户目录的隐藏目录.openclaw的openclaw.json对本地模型的contextWindow设置至少16000

输入pnpm openclaw gateway restart重启

终端执行pnpm openclaw tui,输入问题,成功回答

b)使用云端模型

没有账号的话进行注册,密码需要数字和英文大小写

验证激活

按需安装对接软件的插件,不需要这些就选skip跳过

c)连接飞书

如果需要飞书,可以下载插件

打开https://open.feishu.cn/app,登录后点击创建企业自建应用

简单填写你的应用名称和应用描述,点击创建

点击凭证与基础信息,复制你的APP ID和APP Secret

点击创建版本,简单填写应用版本号和更新说明,点击保存及确认发布

忘记复制的话,回到凭证与基础信息,把你的APP ID和APP Secret粘贴到openclaw

选择中国版飞书

按需选择群聊响应策略

选项效果适用场景
Allowlist只在指定群聊响应推荐,安全可控,避免机器人到处乱回
Open所有群聊都响应(需@)团队小、群少,希望机器人随时待命
Disabled完全不在群聊响应仅私聊使用

如果担心机器人乱回答选 Allowlist,后续在配置文件中指定允许响应的群 ID,防止误触。

按需安装skills,需要的话选择安装方式,不需要就skip for now

Hooks 是可选的自动化触发器,建议先 Skip,后续按需开启

Hook作用适用场景
boot-md启动时自动加载指定 Markdown 文件作为系统提示每次启动都要加载固定指令集
bootstrap-extra-files启动时预加载额外文件到上下文需要预置知识库文件
command-logger自动记录所有命令到日志需要审计追踪操作历史
session-memory切换会话时自动保存/恢复上下文需要持久化记忆,重启后记得之前聊过什么

建议: 刚入门先 Skip for now,不影响核心功能。等熟悉后再根据实际需求开启,尤其是 session-memory 对长期对话体验提升明显。

Skip for now跳过多个步骤后

选择tui

选择tui

也可以打开http://127.0.0.1:18789/chat?session=main,更方便修改配置

后续直接启动可以选择pnpm openclaw dashboard --no-open

回到飞书,点击应用能力,再点击机器人中的“添加”按钮

点击创建版本

点击订阅方式的编辑按钮,选择长连接,然后点击添加事件

依次搜索四个事件并添加:1)用户进入与机器人的会话 2)解散群 3)机器人进群 4)接收消息

点击创建版本

简单填写你的应用版本号、更新说明和应用能力,点击发布

打开飞书,点击应用

打开测试,如果出现以下情况,到openclaw项目的终端执行pnpm openclaw pairing approve feishu 对应的配对码

激活完成后,继续测试飞书对话

在对话中切换模型

d)安装能发现skills的skills

执行npx skills add https://github.com/vercel-labs/skills --skill find-skills

选择openclaw

全局安装,采用符号链接,选择yes

继续yes

可以打开网站或命令行pnpm openclaw skills list验证find-skills是否安装

Mac启动前最好设置权限

执行调查任务,发现似乎没加载find-skills工具

让它自己分析找不到找不到的原因并自行加载find-skills

e)自动安装浏览器操作、数据可视化、高德地图的skills

切换模型

自动安装skills并执行playwright-skill打开浏览器

成功获取数据

创建访问链接成功

查看链接以及下载csv,看起来地图过于简化了

让它继续优化

打开下载文件和地图链接,看起来有所进步,但仍有不足,如果需要更准更美观的话建议换更智能的ai模型或或继续提要求或换工具

创作不易,禁止抄袭,转载请附上原文链接及标题

Read more

GitHub Copilot提示词终极攻略:从“能用”到“精通”的AI编程艺术

摘要:GitHub Copilot作为当前最强大的AI编程助手,其真正的价值不仅在于自动补全代码,更在于开发者如何通过精准的提示词工程与之高效协作。本文系统解析Copilot提示词的核心原理、设计框架与实战技巧,涵盖从基础使用到高级功能的完整知识体系。通过四要素框架、WRAP法则、多场景应用指南,结合表格、流程图等可视化工具,帮助开发者掌握与AI协作的编程范式,提升300%以上的开发效率。文章深度结合当今AI技术发展趋势,提供理论性、可操作性、指导性并存的全面攻略。 关键词:GitHub Copilot、提示词工程、AI编程、代码生成、开发效率、人机协作 🌟 引言:当编程遇见AI,一场思维范式的革命 “写代码就像与一位天才但有点固执的同事合作——你需要用它能理解的语言,清晰地表达你的意图。”这是我在深度使用GitHub Copilot六个月后的最大感悟。 2023年以来,AI编程助手从概念验证走向生产力工具的核心转变,标志着一个新时代的到来。GitHub Copilot不再仅仅是“自动补全工具”,而是具备问答、编辑、自动执行能力的AI开发伙伴。然而,许多开发者仍停留在基础使

OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

从发现问题到深度分析,一篇文章搞懂 OpenCode + GitHub Copilot 的正确打开方式 🌟 前言:一个意外的"惊喜" 进入2026年,朋友圈和技术群里都在讨论一个新的AI开发工具 —— OpenCode,号称是 AI 编程助手的"终极形态",支持 GitHub Copilot、Claude、GPT-4 等多种模型,还能自动执行多步任务。 作为一个爱折腾的程序员,我立马下载试用。我有 GitHub Copilot 企业订阅,而且OpenCode还支持,用起来应该不花钱吧? 结果一周后,我收到了公司 IT 部门的"温馨提醒" 📧: “您的 Copilot 使用量是团队平均水平的 3 倍,请注意合理使用…” 什么情况??我明明只是让

通义万相 2.1 与蓝耘智算平台的深度协同,挖掘 AIGC 无限潜力并释放巨大未来价值

通义万相 2.1 与蓝耘智算平台的深度协同,挖掘 AIGC 无限潜力并释放巨大未来价值

我的个人主页我的专栏:人工智能领域、java-数据结构、Javase、C语言,希望能帮助到大家!!!点赞👍收藏❤ 引言:AIGC 浪潮下的新机遇 在当今数字化飞速发展的时代,人工智能生成内容(AIGC)已成为推动各行业变革的关键力量。从创意内容的快速产出到复杂场景的智能模拟,AIGC 正以前所未有的速度改变着我们的生活和工作方式。通义万相 2.1 作为多模态 AI 生成领域的佼佼者,与蓝耘智算平台这一强大的算力支撑平台深度协同,犹如一颗耀眼的新星,在 AIGC 的浩瀚星空中熠熠生辉,为挖掘 AIGC的无限潜力和释放巨大未来价值提供了坚实的基础和广阔的空间。 一:通义万相 2.1:多模态 AI 生成的卓越典范 ***通义万相 2.1 是阿里巴巴达摩院精心打造的多模态 AI 生成模型,在图像、视频等内容生成方面展现出了令人瞩目的实力。*** 1.1 创新架构引领技术突破 1.

VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】

MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用! 1. VSCode中安装Copilot MCP Copilot MCP是一个适用于 VSCode 的 MCP Client。 2. Copilot MCP使用 安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮 3. Add Server 点击Add Server,MCP Server分为两种建立方式,Process和SSE 以Process为例,输入必要信息: 其中Server Name是你给Server起的任意名字,需要注意的是Start Command。 这里我的输入为: npx -y @modelcontextprotocol/server-filesystem /path 注意path修改为自己的文件路径,