Openclaw部署飞书机器人

OpenClaw 项目资源

  • GitHub 仓库: https://github.com/openclaw/openclaw
  • 官方文档: https://docs.openclaw.ai/
  • 飞书插件:https://www.npmjs.com/package/@m1heng-clawd/feishu
  • GLM模型官方API:https://bigmodel.cn/glm-coding

一、安装 OpenClaw

前置要求

  1. 需要 GLM-4.7 API 或支持 200K token 的 API 模型;
  2. 本地部署的可行性分析:
    • 需 RTX4090-48G 显卡并使用 GLM-4.7-flash-Q4 版本,才有可能有这么大的token,不过别人的高配主机部署这个显卡开200K上下文实测才20token/s;
    • 以一次简单有用的任务使用10万token为例,要达到20token/s[1200token/分钟], 需要80分钟,所以要有200token/s的速度一次任务8分钟勉强能接受[即使这样还是要经常开新会话]。
  3. 安装 Node.js [winget show --id OpenJS.NodeJS,在windows系统中,这个命令可以找到最新的下载链接],右击开始,在终端管理员中输入npm --version命令和node --version,能得到版本号则是安装成功

安装命令

npminstall -g openclaw@latest 

二、飞书机器人配置

  1. 访问 飞书开放平台 创建应用,获取 App ID 和 App Secret
  2. 配置步骤:
    • 添加机器人并命名
    • 在"事件与回调"中将2个地方的订阅方式改为长连接(需确保 OpenClaw 中 Channels 状态为 Enabled 和 OK)
    • 更改后创建并且发布新版本(保持名称一致)
  3. 使用说明:
    • 遇到权限提示可直接复制到飞书平台自动识别
    • 在飞书打开发布的机器人,在对话框中输入 /new 可以创建新会话,不要一直对话,以防token超出

权限管理中添加以下权限[在插件网站上有详细说明]:

contact:contact(全部) im:message(全部) bot(全部) contact:user.base:readonly im:resource 

三、飞书插件安装

安装方式

  • 建议先查询openclaw官方信息,有可能它的最新版本加入了对飞书的支持,这样就不需要自行安装了
  • Windows10/11 手动安装(如遇 spawn npm ENOENT 错误):

安装依赖(可选):

cd C:\Users\Administrator\.openclaw\extensions\feishu npminstall @larksuiteoapi/node-sdk 

安装插件:

openclaw plugins install ./feishu-0.1.4.tgz 

注意:如果安装结果中,在’Installing plugin dependencies '之后又提示这个错误,去安装依赖;如果一直无法直接通过’openclaw plugins install’命令在线安装插件,是因为官方没有支持,你可以去研究怎么手动安装插件,手动安装只能靠openclaw官方文档和插件官方说明。

下载最新版本[访问插件官网找到版本号,更新以下链接中的版本号,必须使用最新的版本,因为你安装的openclaw是最新的,防止插件不兼容]:

curl -O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.4.tgz 

推荐方式(Ubuntu / win系统的WSL2中):

openclaw plugins install @m1heng-clawd/feishu 

配置飞书连接

openclaw config set channels.feishu.appId "YOUR_APP_ID" openclaw config set channels.feishu.appSecret "YOUR_APP_SECRET" openclaw config set channels.feishu.enabled true openclaw config set channels.feishu.connectionMode websocket openclaw config set channels.feishu.dmPolicy pairing openclaw config set channels.feishu.groupPolicy allowlist openclaw config set channels.feishu.requireMention true

四、配置并且启动 OpenClaw

openclaw onboard --install-daemon openclaw gateway 

默认使用了cmd的启动器电脑开机自启,建议使用360优化掉它,使用360急救箱[免安装]扫描到这个启动项,以及自行选择工具处理。

五、首次使用需配置密钥

    • 在 Settings/Connection 中配置获取的 token

临时访问方式:

http://<GATEWAY_ADDRESS>:<PORT>/__openclaw__/?token=YOUR_GATEWAY_TOKEN 

访问控制面板:

http://127.0.0.1:18789/__openclaw__/ 

获取访问令牌:

cat ~/.openclaw/openclaw.json 

Read more

LLaMA-Factory框架参数详解

LLaMA-Factory框架参数详解 在大模型落地进入“工业化”阶段的今天,一个核心挑战浮出水面:如何让复杂的微调流程不再依赖专家级的手动调参和脚本拼接?当研究团队需要快速迭代多个LoRA适配器、产品部门希望将SFT与DPO对齐无缝衔接上线时,传统基于Hugging Face Transformers的自由组合方式开始显得力不从心——配置碎片化、复现困难、部署断层等问题接踵而至。 正是在这种背景下,LLaMA-Factory 应运而生。它不像简单的训练脚本那样只解决单一环节,而是试图构建一条端到端的“模型生产线”。从数据预处理、多阶段训练、自动评估到量化导出,所有模块都被统一抽象为可配置项,通过一套标准化接口串联起来。更关键的是,它支持超过 100+ 主流架构模型,无论是 LLaMA、Qwen、Baichuan 还是 ChatGLM、Phi、Mistral,都可以用同一套参数体系进行操作。 这种设计带来的直接好处是:一次学会,处处可用。你不再需要为每个新模型重写训练逻辑,也不必在不同项目间复制粘贴yaml文件。更重要的是,它的双模式交互(命令行 + WebUI)使得研究员可以精

“AI痕迹太重怎么办?”15个提示词教你降低AIGC率,让写作更像人!

“AI痕迹太重怎么办?”15个提示词教你降低AIGC率,让写作更像人!

还在被AIGC率检测卡住?写得再好,也逃不过“AI痕迹”?别急,这篇文章教你15条最实用的“人类化”提示词,让你的写作摆脱机器人味,一键降重过检! 🧠 为什么你写的AI文章“看起来就像AI写的”? 在很多AIGC检测系统中,比如新版知网、Turnitin、Grammarly、GPTZero等,AI生成内容往往因为这些特征而中招: * 表达过于标准、学境思源,结构死板(比如“引言-三点论证-结尾”的模板) * 用词中性均衡,一键生成,缺乏语气变化 * 没有细节、论文初稿,acaids.com。比喻或非逻辑性插话 * 引用来源少或太“教科书式” * 缺乏真实感和主观思维 这就导致了一个问题:AI写得虽然通顺,但“太工整”,反而容易被机器识别成AI! 🛠️ 如何让AI帮你“写得不像AI”?15个逆转提示词来了! 别再单靠“降重工具”打补丁。更聪明的做法是——从源头开始用“降AIGC率提示词”来让AI写得更像人。

VSCode GitHub Copilot登录卡顿问题解决

🚀 终极解决方案:极致清洁安装 第一步:完全卸载 VSCode 并清理所有痕迹 这是为了消除任何潜在的全局配置或缓存冲突。 1. 打开 Windows 设置 > 应用 > 已安装的应用,找到 Visual Studio Code,点击卸载。在卸载过程中,如果询问是否删除用户数据,务必选择“是”。 2. 手动删除所有残留文件夹(请在执行前关闭VSCode): * %APPDATA%\Code\ (用户数据) * %USERPROFILE%\.vscode\ (全局扩展和缓存) * %LOCALAPPDATA%\Programs\Microsoft VS Code\ (安装目录,如果卸载程序未清理干净) 3. 重启电脑。这一步非常重要,可以确保所有与VSCode相关的进程和文件锁被完全释放。 第二步:重新安装 VSCode 1. 从 VSCode

把 Whisper、Moonshine、SenseVoice 统统装进手机:sherpa-onnx 离线语音部署框架,GitHub 10.9K Star

把 Whisper、Moonshine、SenseVoice 统统装进手机:sherpa-onnx 离线语音部署框架,GitHub 10.9K Star

导读: 语音 AI 模型更新很快——Whisper、Moonshine、SenseVoice、FireRedASR、Paraformer,几乎每个月都有新模型发布。但对开发者来说,选好模型只是第一步,真正的工程挑战在后面:怎么把它跑在手机上?嵌入式设备上?浏览器里?怎么接入 NPU 加速?怎么在没有网络的环境下运行? sherpa-onnx 是 next-gen Kaldi 团队开源的语音推理部署框架(GitHub 10.9k stars,Apache 2.0 协议),它的定位很明确:将多种语音模型统一转成 ONNX 格式,部署到各类平台上,支持离线运行。覆盖 12 项语音功能、12 种编程语言、从服务器到嵌入式的多平台支持,最新版 v1.12.29 于