用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

执行git clone https://github.com/openclaw/openclaw克隆项目,执行cd openclaw进入项目

执行node --version看看node的版本是否大于等于22(没有node.js需自行安装),再执行npm install -g pnpm安装作为包管理器,并执行pnpm install安装依赖

首次执行pnpm ui:build构建 Web UI(会先安装 ui/ 目录的依赖)

执行pnpm build构建主程序

执行pnpm openclaw onboard --install-daemon运行配置向导(安装守护进程),完成初始化

按键盘右箭头选择Yes,同样Yes

任选一个模型提供商都行,没有对应的提供商的密钥可以跳过,如果是本地模型选vLLM(需用vLLM框架启动模型,有性能优势,但原生vLLM仅完全支持Linux的cuda)、Custom Provider(可以连接任何 OpenAI 或 Anthropic 兼容的端点,包括托管提供商和自托管端点)和 LiteLLM (最通用,能通过中间层转换支持任意后端,既支持云端也支持本地模型,也包括Ollama、vLLM、LM Studio、llama.cpp 等本地后端)

Custom Provider最方便,适合日常使用,支持范围:

  • ✅ Ollama(自动检测,无需配置)
  • ✅ vLLM(localhost:8000/v1
  • ✅ LM Studio(localhost:1234/v1
  • ✅ llama.cpp(localhost:8080/v1,需启动 ./llama-server
  • ✅ 自封装 API:任何你自己用 Python + Transformers 封装的 OpenAI-compatible 服务
  • ✅ LiteLLM 代理
  • ✅ Text Generation WebUI

a)使用本地模型及报错处理

Endpoint ID随便填

如果提示alias被占用可以不填Model alias或可到用户目录的隐藏目录.openclaw的openclaw.json删除类似红色框的部分

卡了很久,疑似报错

新开终端,在openclaw项目文件夹位置输入pnpm openclaw logs --follow,可发现关键报错原因是上下文窗口太小(这是 OpenClaw 2026.2 版本的硬性要求:contextWindow 必须 ≥ 16000,但 onboard 向导默认只设 4096)

先输入/exit退出

到用户目录的隐藏目录.openclaw的openclaw.json对本地模型的contextWindow设置至少16000

输入pnpm openclaw gateway restart重启

终端执行pnpm openclaw tui,输入问题,成功回答

b)使用云端模型

没有账号的话进行注册,密码需要数字和英文大小写

验证激活

按需安装对接软件的插件,不需要这些就选skip跳过

c)连接飞书

如果需要飞书,可以下载插件

打开https://open.feishu.cn/app,登录后点击创建企业自建应用

简单填写你的应用名称和应用描述,点击创建

点击凭证与基础信息,复制你的APP ID和APP Secret

点击创建版本,简单填写应用版本号和更新说明,点击保存及确认发布

忘记复制的话,回到凭证与基础信息,把你的APP ID和APP Secret粘贴到openclaw

选择中国版飞书

按需选择群聊响应策略

选项效果适用场景
Allowlist只在指定群聊响应推荐,安全可控,避免机器人到处乱回
Open所有群聊都响应(需@)团队小、群少,希望机器人随时待命
Disabled完全不在群聊响应仅私聊使用

如果担心机器人乱回答选 Allowlist,后续在配置文件中指定允许响应的群 ID,防止误触。

按需安装skills,需要的话选择安装方式,不需要就skip for now

Hooks 是可选的自动化触发器,建议先 Skip,后续按需开启

Hook作用适用场景
boot-md启动时自动加载指定 Markdown 文件作为系统提示每次启动都要加载固定指令集
bootstrap-extra-files启动时预加载额外文件到上下文需要预置知识库文件
command-logger自动记录所有命令到日志需要审计追踪操作历史
session-memory切换会话时自动保存/恢复上下文需要持久化记忆,重启后记得之前聊过什么

建议: 刚入门先 Skip for now,不影响核心功能。等熟悉后再根据实际需求开启,尤其是 session-memory 对长期对话体验提升明显。

Skip for now跳过多个步骤后

选择tui

选择tui

也可以打开http://127.0.0.1:18789/chat?session=main,更方便修改配置

后续直接启动可以选择pnpm openclaw dashboard --no-open

回到飞书,点击应用能力,再点击机器人中的“添加”按钮

点击创建版本

点击订阅方式的编辑按钮,选择长连接,然后点击添加事件

依次搜索四个事件并添加:1)用户进入与机器人的会话 2)解散群 3)机器人进群 4)接收消息

点击创建版本

简单填写你的应用版本号、更新说明和应用能力,点击发布

打开飞书,点击应用

打开测试,如果出现以下情况,到openclaw项目的终端执行pnpm openclaw pairing approve feishu 对应的配对码

激活完成后,继续测试飞书对话

在对话中切换模型

d)安装能发现skills的skills

执行npx skills add https://github.com/vercel-labs/skills --skill find-skills

选择openclaw

全局安装,采用符号链接,选择yes

继续yes

可以打开网站或命令行pnpm openclaw skills list验证find-skills是否安装

Mac启动前最好设置权限

执行调查任务,发现似乎没加载find-skills工具

让它自己分析找不到找不到的原因并自行加载find-skills

e)自动安装浏览器操作、数据可视化、高德地图的skills

切换模型

自动安装skills并执行playwright-skill打开浏览器

成功获取数据

创建访问链接成功

查看链接以及下载csv,看起来地图过于简化了

让它继续优化

打开下载文件和地图链接,看起来有所进步,但仍有不足,如果需要更准更美观的话建议换更智能的ai模型或或继续提要求或换工具

创作不易,禁止抄袭,转载请附上原文链接及标题

Read more

从0到1上手OpenClaw:本地安装 + 云部署全攻略,人人都能拥有专属 AI 执行助手

从0到1上手OpenClaw:本地安装 + 云部署全攻略,人人都能拥有专属 AI 执行助手

在上一篇深度解析中,我们见证了 OpenClaw 如何打破 AI “只会说不会做” 的桎梏,从对话式 AI 进化为能落地执行的数字助手。很多朋友留言表示,被 OpenClaw 的全场景能力打动,却卡在了 “安装部署” 这第一步,担心代码门槛太高无从下手,或是怕踩了环境配置的坑迟迟无法启动。 作为系列教程的开篇,我们就从最零门槛、零成本的本地安装讲起,全程附带可直接复制的命令、新手避坑提醒,哪怕你是第一次接触终端操作,跟着步骤走也能顺利完成安装,真正实现 “一句话指令,AI 全流程执行”。 1. 安装前的必备准备 在正式开始安装前,做好这几项基础准备,能帮你避开 90% 的前期踩坑,大幅提升部署成功率,所有需要用到的工具均为免费开源,可直接从官网下载。 (1)硬件适配 不用盲目追求高配,根据自己的使用场景满足基础要求即可: * a. 零基础新手尝鲜试玩:电脑满足 4 核 CPU、

猫头虎AI分享|一款Coze、Dify类开源AI应用超级智能体快速构建工具:FastbuildAI

猫头虎AI分享|一款Coze、Dify类开源AI应用超级智能体快速构建工具:FastbuildAI

猫头虎AI分享|一款Coze、Dify类开源AI应用超级智能体快速构建工具:FastbuildAI,区别在于它的易用度和商业闭环功能 摘要:FastbuildAI 是一个开源 AI 应用“快速构建与商业化闭环”的工具。它让个人开发者与小团队用“可视化 + 零代码”的方式,几分钟把 AI 应用跑起来,并且把后续的算力计费、用户充值、营销与收款也一并考虑到位。当前为 beta.1 版本,已具备 AI 对话、多模型管理、MCP 调用、充值与余额体系等能力,后续会逐步上线工作流、智能体、知识库、插件市场等特性。 开源地址|猫头虎AI分享github: https://github.com/MaoTouHU/FastbuildAI 图1 首页 为什么是 FastbuildAI?(与 Coze、

ANSYS Fluent 2026 R1新功能实测:从汽车风阻优化看AI加速流体仿真

ANSYS Fluent 2026 R1新功能实测:AI如何重塑汽车风阻优化流程 当电动汽车的续航里程成为消费者最关注的指标之一时,风阻系数每降低0.01都意味着实际道路行驶中可观的续航提升。传统CFD仿真虽然能提供准确的气动特性预测,但工程师们长期受限于网格划分的繁琐和计算资源的消耗。ANSYS Fluent 2026 R1的发布,通过深度整合AI技术,正在彻底改变这一局面。 1. AI赋能的网格生成革命 在传统CFD工作流程中,网格划分往往占据整个项目周期的60%以上时间。Fluent 2026 R1引入的AI-Mesh技术,通过机器学习模型自动识别几何特征并预测最优网格密度分布,将这一过程缩短至原来的1/5。 以某电动汽车外流场分析为例,我们对同一车型分别采用传统方法和AI-Mesh进行对比测试: 参数传统方法AI-Mesh差异网格生成时间4.2小时47分钟-82%网格数量1200万980万-18%y+平均值1.20.9-25%近壁层网格正交质量0.850.92+8% 关键改进细节: * 几何特征自动识别:AI模型可准确识别车门缝隙、后视镜边缘等关键区域

当 AI 接管研发流程,传统工程师的天花板在哪?未来 2 年软件工程发展预判

当 AI 接管研发流程,传统工程师的天花板在哪?未来 2 年软件工程发展预判

当AI接管研发流程:传统工程师的天花板与未来2年软件工程预判 一、AI接管研发的真实图景:不是替代,是重构 当前AI在研发流程中的渗透已经远超想象,从需求分析到部署运维的全链路都出现了AI的身影: * 需求阶段:AI可通过用户访谈录音自动生成结构化需求文档,准确率可达85%以上 * 编码阶段:GitHub Copilot、CodeLlama等工具能完成60%-80%的基础代码编写 * 测试阶段:AI自动生成测试用例、执行回归测试、定位bug根因 * 运维阶段:AI监控系统可提前24小时预测系统故障,自动完成资源调度 但必须明确:AI当前的核心角色是"研发助理",而非"替代者"。它擅长处理重复性、规则明确的工作,但在需要深度业务理解、创新设计和复杂问题决策的场景中,仍然依赖人类工程师的判断。 二、传统工程师的天花板:从技能瓶颈到认知瓶颈 在AI协同研发的时代,传统工程师的职业天花板正在从"技术熟练度"转向"认知高度&