DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

目录

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

前  言

1 环境准备

1.1 华为云开发环境

1.2 ModelArts 代金券与模型服务

1.3 启动 OpenClaw 网关

2 飞书开放平台配置

2.1 创建企业自建应用

2.2 添加机器人能力

2.3 配置应用权限

2.4 发布应用版本

3 OpenClaw 与飞书集成

3.1 配置 OpenClaw 的飞书凭证

3.2 创建 Python 项目与长连接

3.3 配置飞书事件订阅

4 功能测试

5 收尾工作

6 总结与扩展


前  言

        在日常工作中,我们常常需要关注科技领域的最新动态,但手动浏览多个网站效率低下。本文将详细介绍如何利用 OpenClaw(一个开源的 AI 自动化框架)结合 飞书开放平台,快速搭建一个 AI 新闻推送机器人。该机器人可以自动访问指定网站,抓取科技新闻摘要,并通过飞书机器人实时推送给用户,让你不错过任何重要资讯。

1 环境准备

1.1 华为云开发环境

我们选择华为云开发者空间作为开发环境,它提供了预装的开发工具和依赖,能极大简化配置流程。

  1. 登录华为云,进入 开发者空间,创建一个新的云开发环境(在华为开发者空间中,点击菜单开发平台 —— 云开发环境 —— 开发桌面,创建云开发环境 —— 开发桌面。)。
  2. 进入环境后,桌面会预装 CodeArts IDE for PythonGitCode 等工具,我们后续将使用这些工具进行开发。

创建完成后,操作开发桌面开机,然后进入远程桌面。

1.2 ModelArts 代金券与模型服务

为了使用 OpenClaw 的 AI 能力,我们需要先开通 ModelArts 的模型服务:

  1. 在华为云控制台,进入 ModelArts > 在线推理
  2. 在 “非计划权益” 中领取 ModelArts 代金券(如截图所示,本次领取了 7 元代金券)。
  3. 点击 预置服务,选择 DeepSeek-V3.2 等模型,勾选 “我已阅读并同意”,然后点击 一键开通

开通成功后,在 “调用说明” 中获取 API 地址模型参数,并点击 “API Key 管理” 创建一个新的 API Key。

⚠️ 注意:API Key 只会显示一次,请务必复制并妥善保存,后续配置 OpenClaw 时会用到。
⚠️ 注意:API Key 只会显示一次,请务必复制并妥善保存,后续配置 OpenClaw 时会用到。

1.3 启动 OpenClaw 网关

  1. 在桌面双击运行 Moltbot(OpenClaw 的启动器)。
  2. 在弹出的终端中,输入之前创建的 API Key,然后回车。
  3. 系统会自动在后台启动 OpenClaw 网关,并在浏览器中打开控制面板(http://127.0.0.1:18789)。
  4. 在控制面板的 “Chat” 页面,你可以发送消息测试 OpenClaw 是否正常工作,例如:“请向我介绍下你自己?”。

2 飞书开放平台配置

首先,可以在华为云开发环境终端中安装飞书插件,实现OpenClaw与飞书的配置链接。

输入以下命令:

openclaw plugins install @m1heng-clawd/feishu

2.1 创建企业自建应用

  1. 访问 飞书开放平台,登录后点击 创建企业自建应用
  2. 填写应用名称(如 OpenClaw_test)和描述,选择图标后点击 创建

2.2 添加机器人能力

  1. 在应用左侧菜单,进入 应用能力 > 添加应用能力
  2. 选择 机器人 能力,点击 “添加”。

2.3 配置应用权限

为了让机器人能够接收和发送消息,我们需要配置相应的权限:

1. 进入 开发配置 > 权限管理

2. 点击 批量导入 / 导出权限,将以下 JSON 粘贴到输入框中:

{ "scopes": { "tenant": [ "contact:contact.base:readonly", "contact:user.base:readonly", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:send_as_bot", "im:resource" ], "user": [] } }

3. 点击 下一步,确认新增权限,然后点击 申请开通

4. 在弹出的 “应用身份权限可访问的数据范围” 窗口中,点击 确认

2.4 发布应用版本

1. 点击顶部创建版本,进入 应用发布 > 版本管理与发布

2. 进入 创建版本 界面,填写版本号(如 1.0.0)和更新说明,移动端和桌面端的默认能力都选择 “机器人”。

3. 点击 保存,然后 确认发布。发布成功后,应用状态会变为 “已启用”。

4. 进入 基础信息 > 凭证与基础信息,复制 App IDApp Secret,后续配置 OpenClaw 时会用到。

3 OpenClaw 与飞书集成

3.1 配置 OpenClaw 的飞书凭证

1. 在华为云环境的终端中,执行以下命令,将飞书的 App ID 和 App Secret 配置到 OpenClaw 中:

openclaw config set channels.feishu.appId "YOUR_APP_ID" openclaw config set channels.feishu.appSecret "YOUR_APP_SECRET"

2. 重启 OpenClaw 网关使配置生效:

openclaw gateway restart

3.2 创建 Python 项目与长连接

为了让飞书能实时接收 OpenClaw 的消息,我们需要建立一个长连接:

1. 打开桌面的 CodeArts IDE for Python,点击 新建工程,选择 Python,命名为 openClaw_test

2. 打开 IDE 底部的 “终端”,激活虚拟环境并安装飞书 Python SDK:

pip install lark-oapi -U

3. 验证安装:

pip show lark-oapi

4. main.py 文件中的代码替换为飞书官方提供的长连接示例代码,并将其中的 YOUR_APP_IDYOUR_APP_SECRET 替换为我们之前复制的值。

import lark_oapi as lark ## P2ImMessageReceiveV1 为接收消息 v2.0;CustomizedEvent 内的 message 为接收消息 v1.0。 def do_p2_im_message_receive_v1(data: lark.im.v1.P2ImMessageReceiveV1) -> None: print(f'[ do_p2_im_message_receive_v1 access ], data: {lark.JSON.marshal(data, indent=4)}') def do_message_event(data: lark.CustomizedEvent) -> None: print(f'[ do_customized_event access ], type: message, data: {lark.JSON.marshal(data, indent=4)}') event_handler = lark.EventDispatcherHandler.builder("", "") \ .register_p2_im_message_receive_v1(do_p2_im_message_receive_v1) \ .register_p1_customized_event("这里填入你要自定义订阅的 event 的 key,例如 out_approval", do_message_event) \ .build() def main(): cli = lark.ws.Client("YOUR_APP_ID", "YOUR_APP_SECRET", event_handler=event_handler, log_level=lark.LogLevel.DEBUG) cli.start() if __name__ == "__main__": main()

5. 点击右上角的 “运行” 按钮,启动长连接。控制台显示 connected to wss://... 即表示连接成功。

⚠️ 注意:长连接程序必须保持运行,否则飞书无法接收事件推送。

3.3 配置飞书事件订阅

1. 回到飞书开放平台,进入 开发配置 > 事件与回调

2. 在 “事件配置” 中,订阅方式选择 使用长连接接收事件,点击 保存

3. 点击 添加事件,在 “应用身份订阅” 下找到 “消息与群组”,勾选 接收消息 v2.0,然后点击 “确认添加”。

4. 再次进入 版本管理与发布,创建新版本(如 2.0.0)并发布,使事件订阅配置生效。

4 功能测试

一切配置就绪后,我们来测试新闻推送功能:

1. 打开飞书客户端,找到我们创建的机器人 OpenClaw_test

2. 发送指令:@OpenClaw_test 去访问以下两个网站 (https://www.leikeji.com/)、(https://tech.gmw.cn),有任何关于"科技"领域的新闻,立刻把最新的摘要推送给我。

3. 稍等片刻,机器人就会自动抓取新闻并推送回来,效果如下:

发送后可同时在华为云开发者空间OpenClaw客户端查看到返回信息。

5 收尾工作

测试完成后,你可以通过以下命令停止 OpenClaw 网关服务:

openclaw gateway stop

6 总结与扩展

        通过本文的实践,我们成功搭建了一个基于 OpenClaw 和飞书的 AI 新闻推送机器人。这个项目不仅展示了如何将 AI 自动化能力与企业 IM 工具无缝集成,也为我们提供了一个可扩展的框架。

Read more

【保姆级教程】Coze(扣子)从入门到发布全流程:手把手教你打造AI智能体(建议收藏)

【保姆级教程】Coze(扣子)从入门到发布全流程:手把手教你打造AI智能体(建议收藏)

最近小红薯上的这种内容特别火?但是手动制作这种图文内容真的太费时间了! 要查资料、写文案、做排版、找配图…,一套流程下来已经过去大半天了。 今天就来教大家一个超实用的技巧——用扣子(Coze)工作流搭建一个智能体,只需输入一个名词,3分钟就能批量生成这种爆款图文。 废话不多说,直接上干货。 第一步、注册扣子 进入扣子官网(https://www.coze.cn),点击左上角「登录扣子」,通过手机号即可注册登录。 第二步、创建智能体 登陆扣子后,点击页面左上角⊕,选择创建智能体。 创建智能体有两种形式: 第一种是「手动创建」,输入智能体「名称」和「功能介绍」,然后单击图标旁边的生成图标,自动生成一个头像。 第二种就是「AI 创建」,输入你的智能体创建需求,扣子会根据你的描述自动创建一个专属于你的智能体。 第三步、编排智能体 任意选择一种创建形式后,单击确认进入「智能体编排页面」 「手动创建」

【前端进阶之旅】50 道前端超难面试题(2026 最新版)|覆盖 HTML/CSS/JS/Vue/React/TS/ 工程化 / 网络 / 跨端

【前端进阶之旅】50 道前端超难面试题(2026 最新版)|覆盖 HTML/CSS/JS/Vue/React/TS/ 工程化 / 网络 / 跨端

文章目录 * 前言 * 一、原生开发(HTML/CSS/JavaScript) * 二、框架核心(Vue2/3、React16/18/19) * 三、网络协议 * 四、工程化 * 五、跨端开发(uniapp、uniappX) * 六、TypeScript * 写在最后 前言 作为前端开发者,想要突破中高级面试瓶颈,仅掌握基础语法远远不够 —— 大厂面试更侧重底层原理、手写实现、场景分析与跨领域综合能力。本文整理了50 道无答案版前端超难面试题,覆盖原生开发、框架核心、网络协议、工程化、跨端开发、TypeScript 六大核心方向排序且聚焦高频难点,适合自测、复盘或作为面试出题参考,建议收藏反复琢磨! 一、原生开发(HTML/CSS/JavaScript) 原生能力是前端的根基,

WebView 并发初始化竞争风险分析

WebView 并发初始化竞争风险分析

1. 问题背景 本次验证聚焦以下场景: * 后台线程异步调用 WebSettings.getDefaultUserAgent() * 主线程在冷启动阶段首次调用 new WebView() * 两者并发进入 WebView provider / Chromium 初始化链 目标不是验证“预热是否一定提速”,而是确认: * 是否存在共享初始化链竞争 * 主线程是否会因此被拖慢或阶段性阻塞 * 是否具备演化为 ANR 的风险 2. 关键修正结论 结合当前所有日志,更准确的结论应为: getDefaultUserAgent() 与首次 new WebView() 并发时,二者并不是始终“卡死”在 WebViewFactory.getProvider() 这一行;更真实的表现是:它们会共享同一条 WebView provider / Chromium 初始化链,在不同阶段交错推进,并在部分关键节点出现阶段性等待、锁竞争或串行化,进而放大主线程耗时。 也就是说,问题本质更接近: * 交错执行

前端WebSocket实时通信:别再用轮询了!

前端WebSocket实时通信:别再用轮询了! 毒舌时刻 WebSocket?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂技术。你以为随便用个WebSocket就能实现实时通信?别做梦了!到时候你会发现,WebSocket连接断开的问题让你崩溃,重连机制让你晕头转向。 你以为WebSocket是万能的?别天真了!WebSocket在某些网络环境下会被防火墙拦截,而且服务器的负载也是个问题。还有那些所谓的WebSocket库,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 实时性:WebSocket提供全双工通信,可以实现真正的实时通信,比轮询更高效。 2. 减少网络流量:WebSocket只需要建立一次连接,减少了HTTP请求的开销。 3. 服务器推送:服务器可以主动向客户端推送数据,而不需要客户端轮询。 4. 低延迟:WebSocket的延迟比轮询低,适合实时应用。 5. 更好的用户体验:实时通信可以提供更好的用户体验,比如实时聊天、实时数据更新等。 反面教材 // 1. 简单WebSocket连接 const socket =