Openclaw部署飞书机器人

OpenClaw 项目资源

  • GitHub 仓库: https://github.com/openclaw/openclaw
  • 官方文档: https://docs.openclaw.ai/
  • 飞书插件:https://www.npmjs.com/package/@m1heng-clawd/feishu
  • GLM模型官方API:https://bigmodel.cn/glm-coding

一、安装 OpenClaw

前置要求

  1. 需要 GLM-4.7 API 或支持 200K token 的 API 模型;
  2. 本地部署的可行性分析:
    • 需 RTX4090-48G 显卡并使用 GLM-4.7-flash-Q4 版本,才有可能有这么大的token,不过别人的高配主机部署这个显卡开200K上下文实测才20token/s;
    • 以一次简单有用的任务使用10万token为例,要达到20token/s[1200token/分钟], 需要80分钟,所以要有200token/s的速度一次任务8分钟勉强能接受[即使这样还是要经常开新会话]。
  3. 安装 Node.js [winget show --id OpenJS.NodeJS,在windows系统中,这个命令可以找到最新的下载链接],右击开始,在终端管理员中输入npm --version命令和node --version,能得到版本号则是安装成功

安装命令

npminstall -g openclaw@latest 

二、飞书机器人配置

  1. 访问 飞书开放平台 创建应用,获取 App ID 和 App Secret
  2. 配置步骤:
    • 添加机器人并命名
    • 在"事件与回调"中将2个地方的订阅方式改为长连接(需确保 OpenClaw 中 Channels 状态为 Enabled 和 OK)
    • 更改后创建并且发布新版本(保持名称一致)
  3. 使用说明:
    • 遇到权限提示可直接复制到飞书平台自动识别
    • 在飞书打开发布的机器人,在对话框中输入 /new 可以创建新会话,不要一直对话,以防token超出

权限管理中添加以下权限[在插件网站上有详细说明]:

contact:contact(全部) im:message(全部) bot(全部) contact:user.base:readonly im:resource 

三、飞书插件安装

安装方式

  • 建议先查询openclaw官方信息,有可能它的最新版本加入了对飞书的支持,这样就不需要自行安装了
  • Windows10/11 手动安装(如遇 spawn npm ENOENT 错误):

安装依赖(可选):

cd C:\Users\Administrator\.openclaw\extensions\feishu npminstall @larksuiteoapi/node-sdk 

安装插件:

openclaw plugins install ./feishu-0.1.4.tgz 

注意:如果安装结果中,在’Installing plugin dependencies '之后又提示这个错误,去安装依赖;如果一直无法直接通过’openclaw plugins install’命令在线安装插件,是因为官方没有支持,你可以去研究怎么手动安装插件,手动安装只能靠openclaw官方文档和插件官方说明。

下载最新版本[访问插件官网找到版本号,更新以下链接中的版本号,必须使用最新的版本,因为你安装的openclaw是最新的,防止插件不兼容]:

curl -O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.4.tgz 

推荐方式(Ubuntu / win系统的WSL2中):

openclaw plugins install @m1heng-clawd/feishu 

配置飞书连接

openclaw config set channels.feishu.appId "YOUR_APP_ID" openclaw config set channels.feishu.appSecret "YOUR_APP_SECRET" openclaw config set channels.feishu.enabled true openclaw config set channels.feishu.connectionMode websocket openclaw config set channels.feishu.dmPolicy pairing openclaw config set channels.feishu.groupPolicy allowlist openclaw config set channels.feishu.requireMention true

四、配置并且启动 OpenClaw

openclaw onboard --install-daemon openclaw gateway 

默认使用了cmd的启动器电脑开机自启,建议使用360优化掉它,使用360急救箱[免安装]扫描到这个启动项,以及自行选择工具处理。

五、首次使用需配置密钥

    • 在 Settings/Connection 中配置获取的 token

临时访问方式:

http://<GATEWAY_ADDRESS>:<PORT>/__openclaw__/?token=YOUR_GATEWAY_TOKEN 

访问控制面板:

http://127.0.0.1:18789/__openclaw__/ 

获取访问令牌:

cat ~/.openclaw/openclaw.json 

Read more

VS-CODE 里的github copilot 不支持自己配置模型api

1. 关于配置自定义 Claude API 的支持情况 * 结论:不支持。 * 机制说明: * VS Code 官方 GitHub Copilot 扩展(包括 Agent 功能)强制通过 GitHub 的代理服务器进行鉴权和路由。 * 模型切换:GitHub Copilot 允许在订阅权限范围内切换底层模型(例如从 GPT-4o 切换至 Claude 3.5 Sonnet),但这使用的是 GitHub 的企业/个人订阅配额。 * API Key 限制:无法在官方扩展设置中输入个人的 sk-ant-... (Anthropic API Key) 或自定义 Endpoint。 * 替代方案(非官方扩展): * 若必须使用个人 Claude API

1.2 Whisper的安装与配置 | 《Whisper语音识别实战专栏》

引言 在前一篇文章中,我们了解了Whisper的基本概念、发展背景和主要特点。现在,我们将介绍Whisper的安装与配置方法,帮助您快速上手使用Whisper。 Whisper的安装相对简单,主要包括Python环境配置、Whisper库安装和FFmpeg配置三个步骤。在本文章中,我们将详细介绍每个步骤的具体操作方法,并提供常见问题的解决方案。 系统要求 在安装Whisper之前,您需要确保您的系统满足以下要求: * 操作系统:Windows、macOS或Linux * Python版本:3.8-3.11 * PyTorch版本:支持最新版本的PyTorch * 硬件要求: * CPU:支持x86_64架构的处理器 * GPU(可选):支持CUDA的NVIDIA GPU(用于加速模型推理) * 内存:至少4GB RAM,推荐8GB以上 安装步骤 1. 配置Python环境 首先,您需要安装Python环境。如果您已经安装了Python 3.8-3.11,可以跳过这一步。 1.1

LobeChat能否实现AI绘画集成?图文生成联动尝试

LobeChat能否实现AI绘画集成?图文生成联动尝试 在智能创作工具不断演进的今天,用户早已不满足于“只聊不画”的纯文本对话。当一句“帮我画个穿宇航服的猫”就能换来一张生动图像时,人机交互的边界正在被重新定义。而开源聊天界面 LobeChat,正悄然成为这场多模态变革中的关键拼图。 它不只是一个长得像 ChatGPT 的前端壳子——其插件化架构和灵活的模型调度机制,让它具备了向“全能型 AI 助手”跃迁的潜力。尤其是面对当前热门的 AI 绘画需求,LobeChat 是否真能打通“文字描述 → 图像生成 → 上下文反馈”的闭环?我们不妨从工程实践的角度深入一探究竟。 为什么是 LobeChat? 市面上的开源聊天项目不少,但多数仍停留在“换皮调 API”的层面。相比之下,LobeChat 的设计思路更接近一个 可编程的 AI 应用框架。它的价值不仅在于美观的 UI 和流畅的动画,更体现在以下几个核心能力上: * 真正的插件系统:

LLaMA Factory 核心原理讲解

LLaMA Factory 核心原理讲解

大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。 本文主要介绍了LLaMA Factory 核心原理讲解,希望能对学习大模型的同学们有所帮助。 文章目录 * 1. 前言 * 2. 核心模块讲解 * 3. SFT流程讲解 1. 前言 在之前的文章主要介绍了LLaMA Factory的操作方法,其中包括: * LLaMA Factory多卡微调的实战教程 * 基于华为昇腾910B和LLaMA Factory多卡微调的实战教程 * LLaMA Factory添加新模型template的实战解析 * LLaMA Factory在预测阶段时添加原有问题的实战代码 * 详解大模型多轮对话的数据组织形式 但也有同学提出疑问