小龙虾配置飞书机器人(适合本地部署)

小龙虾配置飞书机器人(适合本地部署)

🚀 OpenClaw 手把手教学:配置飞书机器人

📖 目录

  1. 前置准备
  2. 创建飞书应用
  3. 配置机器人能力
  4. 获取必要凭证
  5. 配置 OpenClaw
  6. 测试机器人

前置准备

在开始之前,请确保你具备以下条件:

✅ 必需条件

  • 飞书管理员权限
    • 需要创建企业自建应用的权限
    • 或联系管理员协助创建

OpenClaw 已安装

# 检查是否已安装 openclaw --version

📋 准备清单

  • OpenClaw 已安装并运行
  • 有飞书企业管理员权限
  • 基本的命令行操作能力

创建飞书应用

步骤 1:进入飞书开放平台

  1. 打开浏览器,访问 飞书开放平台
  2. 使用��书账号登录

点击右上角 “开发者后台”

在这里插入图片描述

步骤 2:创建企业自建应用

  1. 点击 “创建企业自建应用”
  2. 填写应用信息:
    • 应用名称OpenClaw AI 助手(可自定义)
    • 应用描述基于 OpenClaw 的 AI 智能助手(可自定义)
    • 应用图标:上传一个喜欢的图标(建议 120x120)

点击 “创建”

在这里插入图片描述

步骤 3:记录应用信息

在这里插入图片描述

创建成功后,你会看到:

App ID: cli_xxxxxxxxxxxxxxxx App Secret: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx 

⚠️ 重要:立即保存这两个值,后面会用到!


配置机器人能力

步骤 4:启用机器人功能

在应用详情里面,添加应用能力,选择机器人。

在这里插入图片描述

步骤 5:配置权限

  1. 点击左侧 “权限管理”
  2. 搜索并添加以下权限:
权限名称权限标识用途
获取与发送单聊、群组消息im:message接收和发送消息
获取用户基本信息contact:user.base:readonly获取用户信息
获取群组信息im:chat:readonly获取群聊信息
发送富文本消息im:message:send_as_bot以机器人身份发送消息

点击 “批量添加”“确认”

在这里插入图片描述

步骤 6:发布版本(重要)

  1. 点击左侧 “版本管理与发布”
  2. 点击 “创建版本”
  3. 填写版本信息:
    • 版本号1.0.0
    • 更新说明首次发布,支持基础对话功能
  4. 点击 “保存”
  5. 点击 “申请发布”
  6. 等待管理员审批(通常几分钟内)

获取必要凭证

步骤 7:获取 App ID 和 App Secret

  1. 在应用详情页,点击左侧 “凭证与基础信息”

你会看到:

App ID: cli_xxx App Secret: xxxxx 

就是前面保存的。这个是开发者应用的凭证。其实也是对应机器人的凭证。

配置 OpenClaw

步骤 8:创建配置文件

编辑 OpenClaw 配置文件:

在这里插入图片描述


或者直接和龙虾对话配置:我正在配置飞书,对应的开发者应用 appid 是 xxx, appSecret 是 xxx ,帮我配置一下

步骤 11:重启 OpenClaw

# 重启服务 openclaw gateway # 检查状态 openclaw status 

预期输出:

✓ OpenClaw 运行中 ✓ Gateway: http://0.0.0.0:18789 ✓ 飞书通道: 已连接 

测试机器人

由于本地部署无法实现双向交流(其实也可以通过ngrok 实现,但是不安全),所以这里是实现单项推送。

首先我们已经配置好了机器人和开发者应用的信息。那么怎么让机器人给我们的飞书发送消息呢。

首先每个飞书在每个开发者应用中,都有一个唯一的openid (同一个飞书用户在不同的应用下openid 不同),所以我们需要获取在对应应用下的openid 。正常我们是看不到的,需要通过接口获取。

#!/bin/bash# =================🔧 配置区域 (请修改这里) =================APP_ID="cli_xxx"APP_SECRET="xxx"PHONE_NUMBER="xxxx"# 替换为你要查询的手机号 (不需要加+86,接口通常自动识别或根据企业设置,若报错可尝试 "+86156...")# =======================================================echo"🚀 开始执行三步查询流程..."echo"--------------------------------------------------"# --- 第一步:获取 tenant_access_token ---echo"1️⃣ 正在获取 Access Token..."TOKEN_RESP=$(curl-s-X POST "https://open.feishu.cn/open-apis/auth/v3/tenant_access_token/internal"\-H"Content-Type: application/json"\-d"{ \"app_id\": \"$APP_ID\", \"app_secret\": \"$APP_SECRET\" }")# 解析 TokenACCESS_TOKEN=$(echo"$TOKEN_RESP"|grep-o'"tenant_access_token":"[^"]*"'|cut -d'"'-f4)if[-z"$ACCESS_TOKEN"];thenecho"❌ 第一步失败:无法获取 Token。"echo"返回信息: $TOKEN_RESP"exit1fiecho"✅ Token 获取成功: ${ACCESS_TOKEN:0:10}..."echo""# --- 第二步:通过手机号获取 user_id ---echo"2️⃣ 正在通过手机号 ($PHONE_NUMBER) 查询 user_id..."# 注意:根据你的案例,mobiles 数组直接传字符串即可STEP2_RESP=$(curl-s-X POST "https://open.feishu.cn/open-apis/contact/v3/users/batch_get_id?user_id_type=user_id"\-H"Authorization: Bearer $ACCESS_TOKEN"\-H"Content-Type: application/json"\-d"{ \"emails\": [], \"include_resigned\": false, \"mobiles\": [ \"$PHONE_NUMBER\" ] }")# 解析 user_id (从 data.user_list[0].user_id 中提取)# 使用 python 解析更稳妥,如果没装 python 则用 grep/sed 简易解析ifcommand-v python3 &> /dev/null;thenUSER_ID=$(echo"$STEP2_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user_list',[{}])[0].get('user_id',''))" 2>/dev/null)else# 简易解析 fallbackUSER_ID=$(echo"$STEP2_RESP"|grep-o'"user_id":"[^"]*"'|head-1|cut -d'"'-f4)fiif[-z"$USER_ID"];thenecho"❌ 第二步失败:未找到 user_id。"echo"返回信息: $STEP2_RESP"echo"💡 提示:请检查手机号是否正确,或应用是否有【读取用户手机号】权限。"exit1fiecho"✅ 找到 user_id: $USER_ID"echo""# --- 第三步:通过 user_id 获取 open_id ---echo"3️⃣ 正在通过 user_id ($USER_ID) 查询 open_id..."# 构造 URL: .../users/{user_id}?department_id_type=open_department_id&user_id_type=user_idTARGET_URL="https://open.feishu.cn/open-apis/contact/v3/users/${USER_ID}?department_id_type=open_department_id&user_id_type=user_id"STEP3_RESP=$(curl-s-X GET "$TARGET_URL"\-H"Authorization: Bearer $ACCESS_TOKEN")# 解析 open_idifcommand-v python3 &> /dev/null;thenOPEN_ID=$(echo"$STEP3_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user',{}).get('open_id',''))" 2>/dev/null)NAME=$(echo"$STEP3_RESP"| python3 -c "import sys, json;d=json.load(sys.stdin); print(d.get('data',{}).get('user',{}).get('name',''))" 2>/dev/null)elseOPEN_ID=$(echo"$STEP3_RESP"|grep-o'"open_id":"[^"]*"'|head-1|cut -d'"'-f4)NAME=$(echo"$STEP3_RESP"|grep-o'"name":"[^"]*"'|head-1|cut -d'"'-f4)fiif[-z"$OPEN_ID"];thenecho"❌ 第三步失败:未找到 open_id。"echo"返回信息: $STEP3_RESP"echo"💡 提示:请检查应用是否有【读取用户信息】权限。"exit1fiecho"--------------------------------------------------"echo"🎉 查询成功!"echo"👤 姓名:$NAME"echo"🆔 User ID: $USER_ID"echo"🔑 Open ID : $OPEN_ID"echo"--------------------------------------------------"

修改上面的3个配置:
APP_ID=“cli_xxx”
APP_SECRET=“xxx”
PHONE_NUMBER=“xxxx” # 替换为你要查询的手机号 (不需要加+86,接口通常自动识别或根据企业设置,若报错可尝试 “+86156…”)
然后保存为lark.sh。 然后 sh lark.sh(如果是win,就把这段代码给到豆包,让它翻译成win 版本的)

在这里插入图片描述


拿到openid 之后,告诉小龙虾,你的飞书用户openid 是这个。让它记下来。

在这里插入图片描述


然后就可以告诉小龙虾做一些事情了,比如写一篇最新的育儿文章,然后发到你的飞书。

在这里插入图片描述
在这里插入图片描述

Read more

AIGC实战测评:蓝耘元生代通义万相2.1图生视频的完美部署~

AIGC实战测评:蓝耘元生代通义万相2.1图生视频的完美部署~

文章目录 * 👏什么是图生视频? * 👏通义万相2.1图生视频 * 👏开源仓库代码 * 👏蓝耘元生代部署通义万相2.1图生视频 * 👏平台注册 * 👏部署通义万相2.1图生视频 * 👏使用通义万相2.1图生视频 * 👏总结 👏什么是图生视频? 图生视频是一种通过图像生成技术,结合文本信息生成视频的创新方式。通过输入一张图像和相关的描述文本,系统能够根据这些输入生成一个符合描述的视频。该技术利用深度学习和计算机视觉技术,将静态图像转化为动态视频,实现视觉内容的快速生成。这种技术的应用广泛,涵盖了内容创作、影视制作、广告生成等多个领域。 👏通义万相2.1图生视频 阿里巴巴旗下“通义”品牌宣布,其AI视频生成模型“通义万相Wan”正式推出独立网站,标志着其生成式AI技术的重大进展。新网站现已开放(网址:wan.video),用户可直接登录体验“文本生成视频”和“图像生成视频”功能,无需本地部署,极大降低了使用门槛。此外,每天登录网站还可获赠积分,激励用户持续探索。 文章链接:https:

蓝耘智算 + 通义万相 2.1:为 AIGC 装上 “智能翅膀”,翱翔创作新天空

蓝耘智算 + 通义万相 2.1:为 AIGC 装上 “智能翅膀”,翱翔创作新天空

1. 引言:AIGC 的崛起与挑战 在过去几年中,人工智能生成内容(AIGC)技术突飞猛进。AIGC 涉及了文本生成、图像创作、音乐创作、视频制作等多个领域,并逐渐渗透到日常生活的方方面面。传统的内容创作方式已经被许多人类创作者所推崇,但随着时间的推移,人工智能的出现使得创作的边界变得更加模糊。 然而,尽管人工智能技术取得了巨大进展,如何高效地将 AI 模型与计算平台结合,以便为 AIGC 提供更加高效、智能的支持,仍然是一个关键问题。蓝耘智算与通义万相 2.1 的结合为解决这一问题提供了新的方向。这种创新的技术融合使得 AIGC 可以不仅仅依赖于数据处理的能力,还可以实现智能化的生成和创作,推动内容创作的未来。 2. 蓝耘智算:为 AIGC 提供智能支持 2.1 蓝耘智算简介 蓝耘智算是一种综合性计算平台,专注于为大规模人工智能应用提供优化计算资源。在过去几年中,蓝耘智算不断发展壮大,已成为许多行业中的顶尖计算平台之一,广泛应用于机器学习、

一文讲清:AI、AGI、AIGC、NLP、LLM、ChatGPT的区别与联系

一文讲清:AI、AGI、AIGC、NLP、LLM、ChatGPT的区别与联系

AI行业的“术语”很多,但它们到底是什么关系?有什么层级逻辑?作为开发者或想转行 AI 应用工程师的人,该从哪学起?今天我们来说一下 本文用一张层次图 + 六段解释,让你彻底搞懂它们的区别与联系。 一、AI:人工智能的最上层概念 AI(Artificial Intelligence,人工智能)是所有智能技术的总称。 它的目标是让机器模仿人的智能行为,例如学习、推理、判断、理解语言、感知世界。 AI 涵盖的分支非常多,包括: * 计算机视觉(CV) * 自然语言处理(NLP) * 语音识别(ASR) * 智能决策系统 * 强化学习(RL) 可以理解为:AI 是整个智能技术的“天花板概念”,下面的所有都属于它的子集。 二、AGI:通用人工智能 AGI(Artificial General

语音识别效率革命:whisper-large-v3-turbo一键部署指南

语音识别效率革命:whisper-large-v3-turbo一键部署指南 【免费下载链接】whisper-large-v3-turbo 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-large-v3-turbo 在人工智能语音识别领域,模型的性能与效率往往难以兼得。然而,最新发布的whisper-large-v3-turbo模型彻底打破了这一困境,在保持与whisper-large-v3近乎一致的识别质量基础上,实现了高达8倍的速度提升。对于需要处理大量语音数据的开发者、企业用户以及研究人员而言,这一突破性进展意味着更低的时间成本、更高的工作效率和更广泛的应用可能性。本教程将详细介绍如何通过极简的一键部署流程,快速将这一高效能模型应用到实际业务场景中。 模型优势深度解析:为何选择whisper-large-v3-turbo whisper-large-v3-turbo的核心竞争力来源于其创新性的模型架构优化。相较于前代模型,开发团队通过动态注意力机制调整、量化参数压缩以及推理流程重构三大技术手段,在保证语音识别