DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

目录

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

前  言

1 环境准备

1.1 华为云开发环境

1.2 ModelArts 代金券与模型服务

1.3 启动 OpenClaw 网关

2 飞书开放平台配置

2.1 创建企业自建应用

2.2 添加机器人能力

2.3 配置应用权限

2.4 发布应用版本

3 OpenClaw 与飞书集成

3.1 配置 OpenClaw 的飞书凭证

3.2 创建 Python 项目与长连接

3.3 配置飞书事件订阅

4 功能测试

5 收尾工作

6 总结与扩展


前  言

        在日常工作中,我们常常需要关注科技领域的最新动态,但手动浏览多个网站效率低下。本文将详细介绍如何利用 OpenClaw(一个开源的 AI 自动化框架)结合 飞书开放平台,快速搭建一个 AI 新闻推送机器人。该机器人可以自动访问指定网站,抓取科技新闻摘要,并通过飞书机器人实时推送给用户,让你不错过任何重要资讯。

1 环境准备

1.1 华为云开发环境

我们选择华为云开发者空间作为开发环境,它提供了预装的开发工具和依赖,能极大简化配置流程。

  1. 登录华为云,进入 开发者空间,创建一个新的云开发环境(在华为开发者空间中,点击菜单开发平台 —— 云开发环境 —— 开发桌面,创建云开发环境 —— 开发桌面。)。
  2. 进入环境后,桌面会预装 CodeArts IDE for PythonGitCode 等工具,我们后续将使用这些工具进行开发。

创建完成后,操作开发桌面开机,然后进入远程桌面。

1.2 ModelArts 代金券与模型服务

为了使用 OpenClaw 的 AI 能力,我们需要先开通 ModelArts 的模型服务:

  1. 在华为云控制台,进入 ModelArts > 在线推理
  2. 在 “非计划权益” 中领取 ModelArts 代金券(如截图所示,本次领取了 7 元代金券)。
  3. 点击 预置服务,选择 DeepSeek-V3.2 等模型,勾选 “我已阅读并同意”,然后点击 一键开通

开通成功后,在 “调用说明” 中获取 API 地址模型参数,并点击 “API Key 管理” 创建一个新的 API Key。

⚠️ 注意:API Key 只会显示一次,请务必复制并妥善保存,后续配置 OpenClaw 时会用到。
⚠️ 注意:API Key 只会显示一次,请务必复制并妥善保存,后续配置 OpenClaw 时会用到。

1.3 启动 OpenClaw 网关

  1. 在桌面双击运行 Moltbot(OpenClaw 的启动器)。
  2. 在弹出的终端中,输入之前创建的 API Key,然后回车。
  3. 系统会自动在后台启动 OpenClaw 网关,并在浏览器中打开控制面板(http://127.0.0.1:18789)。
  4. 在控制面板的 “Chat” 页面,你可以发送消息测试 OpenClaw 是否正常工作,例如:“请向我介绍下你自己?”。

2 飞书开放平台配置

首先,可以在华为云开发环境终端中安装飞书插件,实现OpenClaw与飞书的配置链接。

输入以下命令:

openclaw plugins install @m1heng-clawd/feishu

2.1 创建企业自建应用

  1. 访问 飞书开放平台,登录后点击 创建企业自建应用
  2. 填写应用名称(如 OpenClaw_test)和描述,选择图标后点击 创建

2.2 添加机器人能力

  1. 在应用左侧菜单,进入 应用能力 > 添加应用能力
  2. 选择 机器人 能力,点击 “添加”。

2.3 配置应用权限

为了让机器人能够接收和发送消息,我们需要配置相应的权限:

1. 进入 开发配置 > 权限管理

2. 点击 批量导入 / 导出权限,将以下 JSON 粘贴到输入框中:

{ "scopes": { "tenant": [ "contact:contact.base:readonly", "contact:user.base:readonly", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:send_as_bot", "im:resource" ], "user": [] } }

3. 点击 下一步,确认新增权限,然后点击 申请开通

4. 在弹出的 “应用身份权限可访问的数据范围” 窗口中,点击 确认

2.4 发布应用版本

1. 点击顶部创建版本,进入 应用发布 > 版本管理与发布

2. 进入 创建版本 界面,填写版本号(如 1.0.0)和更新说明,移动端和桌面端的默认能力都选择 “机器人”。

3. 点击 保存,然后 确认发布。发布成功后,应用状态会变为 “已启用”。

4. 进入 基础信息 > 凭证与基础信息,复制 App IDApp Secret,后续配置 OpenClaw 时会用到。

3 OpenClaw 与飞书集成

3.1 配置 OpenClaw 的飞书凭证

1. 在华为云环境的终端中,执行以下命令,将飞书的 App ID 和 App Secret 配置到 OpenClaw 中:

openclaw config set channels.feishu.appId "YOUR_APP_ID" openclaw config set channels.feishu.appSecret "YOUR_APP_SECRET"

2. 重启 OpenClaw 网关使配置生效:

openclaw gateway restart

3.2 创建 Python 项目与长连接

为了让飞书能实时接收 OpenClaw 的消息,我们需要建立一个长连接:

1. 打开桌面的 CodeArts IDE for Python,点击 新建工程,选择 Python,命名为 openClaw_test

2. 打开 IDE 底部的 “终端”,激活虚拟环境并安装飞书 Python SDK:

pip install lark-oapi -U

3. 验证安装:

pip show lark-oapi

4. main.py 文件中的代码替换为飞书官方提供的长连接示例代码,并将其中的 YOUR_APP_IDYOUR_APP_SECRET 替换为我们之前复制的值。

import lark_oapi as lark ## P2ImMessageReceiveV1 为接收消息 v2.0;CustomizedEvent 内的 message 为接收消息 v1.0。 def do_p2_im_message_receive_v1(data: lark.im.v1.P2ImMessageReceiveV1) -> None: print(f'[ do_p2_im_message_receive_v1 access ], data: {lark.JSON.marshal(data, indent=4)}') def do_message_event(data: lark.CustomizedEvent) -> None: print(f'[ do_customized_event access ], type: message, data: {lark.JSON.marshal(data, indent=4)}') event_handler = lark.EventDispatcherHandler.builder("", "") \ .register_p2_im_message_receive_v1(do_p2_im_message_receive_v1) \ .register_p1_customized_event("这里填入你要自定义订阅的 event 的 key,例如 out_approval", do_message_event) \ .build() def main(): cli = lark.ws.Client("YOUR_APP_ID", "YOUR_APP_SECRET", event_handler=event_handler, log_level=lark.LogLevel.DEBUG) cli.start() if __name__ == "__main__": main()

5. 点击右上角的 “运行” 按钮,启动长连接。控制台显示 connected to wss://... 即表示连接成功。

⚠️ 注意:长连接程序必须保持运行,否则飞书无法接收事件推送。

3.3 配置飞书事件订阅

1. 回到飞书开放平台,进入 开发配置 > 事件与回调

2. 在 “事件配置” 中,订阅方式选择 使用长连接接收事件,点击 保存

3. 点击 添加事件,在 “应用身份订阅” 下找到 “消息与群组”,勾选 接收消息 v2.0,然后点击 “确认添加”。

4. 再次进入 版本管理与发布,创建新版本(如 2.0.0)并发布,使事件订阅配置生效。

4 功能测试

一切配置就绪后,我们来测试新闻推送功能:

1. 打开飞书客户端,找到我们创建的机器人 OpenClaw_test

2. 发送指令:@OpenClaw_test 去访问以下两个网站 (https://www.leikeji.com/)、(https://tech.gmw.cn),有任何关于"科技"领域的新闻,立刻把最新的摘要推送给我。

3. 稍等片刻,机器人就会自动抓取新闻并推送回来,效果如下:

发送后可同时在华为云开发者空间OpenClaw客户端查看到返回信息。

5 收尾工作

测试完成后,你可以通过以下命令停止 OpenClaw 网关服务:

openclaw gateway stop

6 总结与扩展

        通过本文的实践,我们成功搭建了一个基于 OpenClaw 和飞书的 AI 新闻推送机器人。这个项目不仅展示了如何将 AI 自动化能力与企业 IM 工具无缝集成,也为我们提供了一个可扩展的框架。

Read more

前端监听网络状态失效?别急,可能是你“断网”的方式不对!

前端监听网络状态失效?别急,可能是你“断网”的方式不对!

前端监听网络状态失效?别急,可能是你“断网”的方式不对! 在开发支持离线体验的 Web 应用时,很多开发者都会第一时间想到使用 window.addEventListener(‘online’) 和 offline 事件。代码写得漂亮,逻辑也清晰,可一测试却发现——事件根本没触发! 明明关了 Wi-Fi,拔了网线,甚至开了飞行模式,控制台却一片寂静。难道浏览器“失聪”了?其实,并非事件失效,而是我们对“离线”的理解与浏览器的判断标准存在偏差。 今天,我们就来揭开这个“监听不到”的谜团,并提供一套可靠的调试与适配方案。 一、浏览器如何定义“在线”? 关键点在于: navigator.onLine 的值由操作系统提供,而非通过 ping 某个服务器得出。 这意味着: * 只要系统认为“有物理或无线连接”

Spring Boot Web 后端开发注解核心

Spring Boot Web 后端开发注解核心

在 Spring Boot Web 后端开发中,注解(Annotation)是核心,它们极大简化了配置、依赖管理、请求映射、数据持久化等。本文将按照功能分类,详细列出常用注解的作用、使用方式、典型场景,并附带简明代码示例,帮助你全面掌握并灵活运用。 文章目录 * 1. 核心启动与配置注解 * 2. 控制器与请求映射注解 * 3. 依赖注入与组件注册注解 * 4. 数据访问(JPA / Spring Data)注解 * 5. 事务管理注解 * 6. 缓存注解 * 7. 异步与定时任务注解 * 8. 异常处理与控制器增强 * 9. 跨域支持注解 * 10. 条件化配置注解(自动配置相关) * 11. 测试注解 * 12. Lombok 常用注解(简化代码)

前端代码可读性优化:让你的代码不再像天书

前端代码可读性优化:让你的代码不再像天书 毒舌时刻 代码可读性?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为随便加几个注释就能提高代码可读性?别做梦了!到时候你会发现,注释比代码还多,维护起来比代码还麻烦。 你以为变量名取长一点就能提高可读性?别天真了!过长的变量名会让代码变得臃肿,反而影响可读性。还有那些所谓的代码规范,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 提高可维护性:良好的代码可读性可以提高代码的可维护性,减少维护成本。 2. 减少错误:可读性高的代码更容易理解,减少出错的概率。 3. 团队协作:良好的代码可读性可以便于团队成员之间的协作,减少沟通成本。 4. 代码复用:可读性高的代码更容易被复用,提高开发效率。 5. 降低学习成本:新团队成员可以更快地理解代码,降低学习成本。 反面教材 // 1. 变量名不清晰 function calc(a, b, c) { let x = a + b;

使用 Spring Boot WebClient 调用大模型 API(OpenAI、文心一言、通义千问)

使用 Spring Boot WebClient 调用大模型 API(OpenAI、文心一言、通义千问)

在当今 AI 时代,大模型 API(如 OpenAI 的 GPT、百度的文心一言、阿里云的通义千问)已成为开发者集成智能功能的核心工具。Spring Boot 作为现代 Java 开发的首选框架,其内置的 WebClient(基于 Reactor 的非阻塞 HTTP 客户端)是调用 REST API 的高效、灵活的方式。本文将详细介绍如何使用 Spring Boot 的 WebClient 来调用主流大模型 API,帮助你快速上手。 一、为什么选择 WebClient? 特性 RestTemplate WebClient 同步/异步 同步(阻塞) 异步(非阻塞,响应式)