OpenClaw 飞书机器人搭建流程

OpenClaw 飞书机器人搭建流程

OpenClaw 飞书机器人搭建流程

手把手教你搭建属于自己的飞书 AI 机器人!


一、创建企业自建应用

首先进入飞书开发者后台:

👉 https://open.feishu.cn/app

填写应用名称和描述,直接点击创建即可。

创建完成后,会自动生成 App IDApp Secret,这两个凭证后面配置 OpenClaw 时会用到,先记下来。


二、添加机器人能力

在应用详情页左侧菜单找到「机器人」,点击添加。

添加成功后,机器人就可以在飞书中被搜索和使用了。


三、开通消息权限

进入「权限管理」,找到 im: 相关权限,全部勾选。

⚠️ 注意:以下这个权限建议不要勾选

获取群组中所有消息(im:message.group_msg)

否则群里所有消息机器人都会收到并响应,会造成不必要的干扰。我们只需要机器人在被 @ 的时候响应即可。

四、发布应用 & 事件配置

4.1 创建版本并发布


五、配置 OpenClaw

接下来让 OpenClaw 帮你完成配置!

5.1 选择合适的模型

根据你的需求,为机器人选择一个合适的 AI 模型:

5.2 提供凭证信息

把之前创建应用时获得的 App IDApp Secret 发给 OpenClaw,它会自动帮你写入配置文件并重启网关。


六、配置飞书事件订阅

网关重启后,回到飞书开发者后台配置事件订阅。

6.1 选择长连接方式

6.2 添加事件订阅

配置好长连接后,添加以下事件:


七、升级版本并发布

发布新版本后,飞书的「开发者小助手」会收到通知消息。


八、开始对话!

打开飞书,搜索你创建的机器人,直接开始对话吧!


🎉 搭建完成!

恭喜你,一个专属的飞书 AI 机器人就搭建好了!

Read more

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

前言 通义万相2.1作为一个开源的视频生成AI模型,在发布当天便荣登了VBench排行榜的榜首,超越了Sora和Runway等业内巨头,展现出惊人的潜力。模型不仅能够生成1080P分辨率的视频,而且没有时长限制,能够模拟自然动作,甚至还可以还原物理规律,这在AIGC领域中简直堪称革命性突破。通过蓝耘智算平台,我们能够轻松部署这个模型,创建属于自己的AI视频生成工具。今天,我将为大家深入探讨通义万相2.1的强大功能,并分享如何利用蓝耘智算平台快速入门。 蓝耘智算平台 1. 平台概述 蓝耘智算平台是一个为高性能计算需求设计的云计算平台,提供强大的计算能力与灵活服务。平台基于领先的基础设施和大规模GPU算力,采用现代化的Kubernetes架构,专为大规模GPU加速工作负载而设计,满足用户多样化的需求。 2. 核心优势 * 硬件层: 蓝耘智算平台支持多型号GPU,包括NVIDIA A100、V100、H100等高性能显卡,能够通过高速网络实现多机多卡并行计算,突破单机算力瓶颈。 * 软件层: 集成Kubernetes与Docker技术,便于任务迁移与隔离;支持PyTo

智能体来了—初级工作流:数据与接口基础(AI Agent / 低代码必修课)

智能体来了—初级工作流:数据与接口基础(AI Agent / 低代码必修课)

在 AI Agent 和低代码开发盛行的今天,很多同学会画流程图,但一到具体配置参数、处理 API 返回数据时就频频报错。 其实,工作流的本质只有一句话: 数据在不同节点之间的流转与变形。 如果不理解基础的数据类型和接口规范,你的工作流就像堵塞的水管,要么跑不通,要么跑得很慢。 今天,我们通过一张思维导图,系统性地补齐这块短板,帮你真正理解工作流的“底层逻辑”。 一、工作流基础:认识你的“积木” 工作流是由一个个**节点(Node)**串联而成的。在开始搭建之前,我们需要先搞清楚: 自己手里到底有哪些“积木”可以用。 1.1 核心节点类型 在大多数 AI / 低代码平台中,节点可以概括为以下五大类: * 正常节点 执行单一任务,例如发送 HTTP 请求、调用模型、处理数据。 * 传入 / 传出节点

论文笔记DiT:Scalable Diffusion Models with Transformers(含transformer的可扩展扩散模型 )

论文笔记DiT:Scalable Diffusion Models with Transformers(含transformer的可扩展扩散模型 )

Abstract:     论文的核心思想非常直接:用一个标准的 Transformer 架构替换掉扩散模型中常用的 U-Net 主干网络,并证明这种新架构(称为 DiT, Diffusion Transformer)具有出色的可扩展性(Scalability)。 Background & Motivation:     在论文发表前,Transformer 已经在自然语言处理(BERT, GPT)和计算机视觉(ViT)等领域取得了巨大成功,成为了一种“统一”的架构。然而,在图像生成领域,特别是扩散模型中,大家仍然普遍使用 U-Net。U-Net 因其多尺度特征融合和卷积的局部归纳偏置而被广泛采用。     在深度学习中,一个好的架构应该具备良好的“可扩展性”——即投入更多的计算资源(更大的模型、更多的数据),性能应该会持续稳定地提升。ViT 已经证明了 Transformer 在视觉识别任务上具有这种特性。作者们希望验证 DiT 是否也具备这种优良特性,为未来的生成模型发展指明一条清晰的路径。

FPGA平台下组合逻辑电路的实战案例分析

以下是对您提供的博文内容进行 深度润色与结构重构后的技术文章 。整体风格更贴近一位资深FPGA工程师在技术社区中自然、专业、有温度的分享,去除了模板化表达和AI痕迹,强化了工程语境、实战细节与教学逻辑,同时严格遵循您提出的全部优化要求(无“引言/总结/展望”等模块标题、不使用刻板连接词、融合多维度要点于叙述流中、语言真实可感、结尾顺势收束): 从LED点阵说起:一个让新手栽过三次跟头的组合逻辑设计现场 去年带实习生做Artix-7开发板上的8×8 LED动态扫描项目时,我亲眼看着三个不同背景的同学,在同一个地方卡了整整两周——不是不会写Verilog,也不是看不懂时序图,而是反复遭遇“仿真全绿、上板乱闪、示波器一测满屏毛刺”的窘境。最后发现,问题根子不在代码语法,而在于他们把“组合逻辑”当成了教科书里那个干净利落的真值表,却忘了FPGA里的每一根走线、每一个LUT、每一对IO Bank,都在用纳秒级的物理行为对你的抽象逻辑说:“你确定这是我要执行的?” 今天我们就从这个真实的调试现场出发,把译码器和多路选择器这两块最基础的数字电路积木,重新拆开、擦亮、装回系统里——不讲定义,只